OpenAI setzt KI-Modell GEGEN eigene Mitarbeiter ein
Neue Software vergleicht veröffentlichte Artikel semantisch mit interner Kommunikation, um undichte Stellen zu finden.

OpenAI setzt offenbar eine speziell angepasste Version des eigenen Sprachmodells ein, um interne Informationslecks aufzuspüren. Das System gleicht veröffentlichte Medienberichte automatisch mit internen Kommunikationsdaten aus Slack und E-Mails ab, um die Ursprünge vertraulicher Informationen zu identifizieren.
Automatisierte Forensik statt manueller Suche
Berichten von The Information zufolge hat das KI-Unternehmen ein internes Werkzeug entwickelt, das die Suche nach sogenannten "Leakern" signifikant beschleunigt. Während Sicherheitsabteilungen in Technologieunternehmen traditionell manuell Protokolle durchsuchen mussten, übernimmt nun eine spezialisierte Instanz von ChatGPT diese Aufgabe.
Das System analysiert externe Artikel, extrahiert Kernaussagen und spezifische Formulierungen und vergleicht diese mit der internen Datenbank. Diese umfasst Logs aus Kommunikationsplattformen wie Slack, E-Mail-Verkehr und Dokumentenablagen. Das Ziel ist es, Muster zu erkennen, die auf eine Weitergabe von Betriebsgeheimnissen hindeuten. Dies markiert einen Übergang von passiven Sicherheitsprotokollen hin zu einer aktiven, KI-gestützten Überwachung der Mitarbeiterkommunikation.
Anzeige
Semantische Analyse und Datenintegration
Technisch betrachtet handelt es sich bei diesem Vorgehen um eine Anwendung von fortgeschrittenem "Retrieval-Augmented Generation" (RAG) in Kombination mit semantischer Suche. Das Modell sucht nicht nur nach exakten Wortübereinstimmungen, sondern erkennt sinngemäße Parallelen zwischen einem Pressebericht und internen Chats.
Dies setzt eine tiefe Integration des Modells in die IT-Infrastruktur voraus. Um effektiv zu arbeiten, benötigt die KI Zugriff auf riesige Mengen unstrukturierter Textdaten des Unternehmens. Die Fähigkeit des Modells, den Kontext von Diskussionen zu verstehen – etwa wer wann Zugriff auf ein spezifisches Dokument hatte –, erlaubt eine präzisere Eingrenzung potenzieller Quellen als herkömmliche Keyword-Suchmaschinen. Es demonstriert die Leistungsfähigkeit moderner KI-Agenten, die zunehmend komplexe analytische Aufgaben autonom bewältigen.
Implikationen für Datenschutz und Arbeitskultur
Der Einsatz solcher Technologien wirft Fragen hinsichtlich der Fehleranfälligkeit auf. Sprachmodelle sind dafür bekannt, Zusammenhänge gelegentlich falsch zu interpretieren oder "Halluzinationen" zu erzeugen. Eine falsche Beschuldigung auf Basis einer KI-Analyse könnte arbeitsrechtliche Konsequenzen nach sich ziehen.
Zudem verändert der Einsatz solcher Tools das interne Klima. Wenn Mitarbeiter wissen, dass ihre Kommunikation permanent durch eine KI auf Übereinstimmungen mit externen Leaks geprüft wird, dürfte dies die offene Diskussionskultur, die in der Tech-Branche oft beschworen wird, hemmen. Es bleibt abzuwarten, ob die bloße Existenz dieses Tools als Abschreckung dient oder ob es tatsächlich zu einer höheren Aufklärungsquote bei Datenlecks führt.