OpenAI zensiert ChatGPT
Warum der KI-Chatbot ab sofort über Geld, Gesundheit und Recht schweigen muss.

OpenAI verpasst ChatGPT einen Maulkorb. Der KI-Chatbot darf ab sofort keine spezifischen Ratschläge mehr zu Medizin, Recht oder Finanzen erteilen. Das Unternehmen reagiert damit auf wachsende Haftungsbedenken nach mehreren dokumentierten Schadensfällen.
Falsche Ratschläge mit ernsten Folgen
Die drastische Änderung der Nutzungsrichtlinien vom 29. Oktober ist kein Zufall. Sie ist eine direkte Reaktion auf ernste Vorfälle. In der Vergangenheit hatten sich Nutzer auf die Ratschläge der KI verlassen, teils mit gravierenden gesundheitlichen Folgen. Das Vertrauen in die Maschine wurde zum Risiko.
Die Berichte über Schäden häuften sich zuletzt. In einem dokumentierten Fall ersetzte ein Mann auf Empfehlung von ChatGPT normales Tafelsalz durch Natriumbromid. Dies führte bei ihm zur Entwicklung psychischer Symptome. In einem anderen Fall gab die KI falsche Ratschläge zu Krebs, was eine notwendige Diagnose verzögerte. Diese Fälle erhöhten den Druck auf OpenAI massiv.
Vom Berater zum Bildungstool
OpenAI positioniert sein bekanntestes Produkt damit neu. Der Chatbot gilt offiziell nicht länger als "Berater" für sensible Lebensbereiche. Stattdessen stuft das Unternehmen die KI nun als reines "Bildungstool" ein.
Dieser Schritt dient primär der rechtlichen Absicherung. Das Unternehmen will offensichtlich die Haftungsrisiken minimieren. Wenn das Tool nur noch bildet statt berät, sinkt die Gefahr teurer Klagen bei Falschinformationen. Die KI zieht sich damit aus der Verantwortung zurück.
Ein Verbot mit Fragezeichen
In der Fachwelt wird bereits diskutiert, wie umfassend die Sperre wirklich ist. Experten, etwa vom Portal "Artificial Lawyer", bezweifeln, dass die KI nun gar keine juristischen Informationen mehr liefert. Die Grenze zwischen allgemeiner Information und spezifischer Beratung bleibt unscharf.
Es bleibt abzuwarten, wie OpenAI die neue Richtlinie technisch umsetzt. Die KI könnte weiterhin allgemeine Definitionen liefern, aber direkte Handlungsanweisungen verweigern. Die vage Formulierung in den Richtlinien lässt viel Spielraum für Interpretationen.
Die Änderung zeigt deutlich die Grenzen aktueller KI-Modelle auf. Für Nutzer bedeutet dies vor allem eines: Die Verantwortung für kritische Entscheidungen in Medizin, Recht und Finanzen bleibt vollständig beim Menschen.