ChatGPT-Prompts als Beweismittel
Die US-Regierung hat OpenAI gezwungen, private Nutzerdaten wegen Chat-Eingaben preiszugeben

US-Behörden haben erstmals die Eingaben eines Nutzers bei ChatGPT als Grundlage für einen Gerichtsbeschluss genutzt. Die Homeland Security Investigations (HSI) zwang OpenAI zur Herausgabe von Daten. Obwohl der Fall einen schweren Straftatverdacht betraf, wirft das Vorgehen grundlegende Fragen zum Datenschutz auf.
Die Jagd per KI-Protokoll
Im Zentrum der Ermittlungen stand der mutmaßliche Administrator eines großen kriminellen Netzwerks. Die US-Behörde HSI jagte einen Mann, der rund 15 Darknet-Plattformen betrieben haben soll. Auf diesen Seiten wurde laut den Akten Material von Kindesmissbrauch geteilt, zugänglich für etwa 300.000 Nutzer.
Während der monatelangen Ermittlungen stießen die Fahnder auf zwei spezifische Prompts, die bei ChatGPT eingegeben wurden. Die Anfragen selbst sollen harmlos gewirkt haben. Dennoch sahen die Ermittler einen ausreichenden Zusammenhang zu ihrem Verdächtigen.
Sie beantragten daraufhin einen Gerichtsbeschluss. Dieser zwang OpenAI, die Identität des Nutzers preiszugeben, der diese zwei Sätze eingegeben hatte. Es ist das erste Mal, dass der Inhalt einer KI-Konversation als primärer Anlass für eine solche Datenanforderung diente.
Die Büchse der Pandora für die Privatsphäre
OpenAI kam der Anordnung nach und lieferte die angeforderten Nutzerdaten. Berichten zufolge führten diese spezifischen Informationen am Ende nicht direkt zur Verhaftung des Verdächtigen. Die Ermittler nutzten offenbar traditionelle Methoden, um den Mann zu fassen.
Die Bedeutung dieses Falls liegt jedoch nicht im Ermittlungserfolg, sondern in der Methode. Juristen und Datenschützer warnen vor einem Dammbruch. Bisher kannte man ähnliche Anfragen, sogenannte "Reverse Warrants", hauptsächlich von Google. Dort fragten Behörden etwa, wer nach einer bestimmten Adresse gesucht hat.
Die Übertragung dieser Logik auf KI-Chats ist neu und brisant. Experten befürchten, dass Ermittler nun beginnen könnten, Chat-Inhalte im großen Stil als Fahndungsmittel zu nutzen. Jede Eingabe bei einer KI hinterlässt einen digitalen Fingerabdruck, der potenziell zur Überwachung genutzt werden kann. Der Fall zeigt, wie schnell KI-Werkzeuge von reinen Helfern zu Überwachungsinstrumenten werden können.
KI-Wissen ohne Paywall
Unsere Artikel, Tests und Tutorials bleiben kostenlos. Wenn dir die Inhalte helfen, unterstütze unsere Arbeit gern.
Danke dir – jeder Euro hilft ❤️