Brom statt Salz – wie ChatGPT zur Psychose führte
Ein 60-Jähriger folgt dem Rat der KI und landet in der Psychiatrie. Wie konnte das passieren?

gpt-image-1 | All-AI.de
EINLEITUNG
Ein 60-Jähriger wollte gesünder leben und weniger Salz konsumieren. Statt Ernährungsexperten fragte er ChatGPT – und erhielt eine gefährliche Empfehlung: Natriumchlorid durch Natriumbromid zu ersetzen. Monate später landete er mit Halluzinationen, Paranoia und akuter Psychose im Krankenhaus. Wie konnte ein Chatbot aus einer simplen Gesundheitsfrage einen toxischen Selbstversuch machen?
NEWS
Ein harmloser Wunsch, eine toxische Antwort
Ausgangspunkt war der Plan, Chlorid (also Salz) aus der Ernährung zu streichen – eine Idee, die medizinisch bereits fragwürdig ist. Doch der Chatbot schlug offenbar vor, Natriumchlorid durch Natriumbromid zu ersetzen – ein Stoff, der chemisch ähnlich aussieht, toxikologisch aber eine andere Kategorie darstellt.
Der Mann nutzte das Bromid-Salz über Monate hinweg. Symptome wie Schlaflosigkeit, Wahnvorstellungen und Desorientierung entwickelten sich schleichend – typisch für Bromismus, ein heute seltenes, früher aber verbreitetes Krankheitsbild. Erst im Krankenhaus erkannte man den Zusammenhang, weil Laborwerte durch Bromid verfälscht wurden und psychiatrische Symptome im Vordergrund standen.
Ein Krankheitsbild aus der Versenkung
Bromismus war im frühen 20. Jahrhundert keine Seltenheit. Bromid kam als Bestandteil von Beruhigungsmitteln zum Einsatz und wurde erst später wegen seiner Nebenwirkungen verbannt. Typisch sind neurologische und dermatologische Auffälligkeiten, etwa Akneausbrüche oder Konzentrationsstörungen.
Gerade weil Bromid heute kaum noch in Lebensmitteln oder Medikamenten vorkommt, war die Diagnose schwierig. Die Kombination aus diffuser Symptomatik und chemischer Laborverzerrung täuschte zunächst in Richtung rein psychiatrischer Erkrankung – bis die Herkunft des Würzsalzes zur Sprache kam.
KI kennt keine Dosis – und keinen Kontext
Im Nachgang testeten die behandelnden Ärzte ChatGPT selbst. Ergebnis: Das Modell nannte Bromid als möglichen Ersatz für Chlorid – ohne Warnung vor toxischer Wirkung oder Verzehr. Genau hier liegt das strukturelle Problem: Sprachmodelle kombinieren Begriffe, sie verstehen sie nicht.
Das erzeugt plausible, aber potenziell gefährliche Antworten. Besonders in Gesundheitsfragen reicht sprachliche Eleganz nicht – medizinische Relevanz, Dosisangaben und Haftung fehlen. In diesem Fall führte das zu einer Fehlinformation mit schwerwiegenden Folgen für einen realen Menschen.
Was bleibt, ist eine Lektion
Der Mann wurde stabilisiert, das Bromid ausgeschlichen, die Symptome verschwanden. Zurück bleibt ein Fallbericht – und eine klare Mahnung: Wer KI nutzt, sollte sie nicht mit Kompetenz verwechseln. Vor allem nicht in Fragen, die Körper, Psyche oder Gesundheit betreffen.
Der Zwischenfall zeigt, was passieren kann, wenn wir KI-Antworten wie Expertenrat behandeln. Die Frage „Wie ersetze ich Salz?“ war harmlos. Die Antwort der Maschine war es nicht.
DEIN VORTEIL - DEINE HILFE
Kostenlose News und Tutorials – mit minimaler Werbung und maximalem Mehrwert. Damit das so bleibt und wir uns stetig verbessern können, freuen wir uns über deine Unterstützung.
Teile diesen Beitrag
Folge uns auf Social Media
Keine KI-News mehr verpassen und direkt kommentieren!
Unterstütze uns direkt
Mit einer YouTube-Mitgliedschaft (ab 0,99 €) oder einmalig über PayPal. So helft ihr uns, unabhängig neue Tools zu testen und noch mehr Tutorials für euch zu erstellen. Vielen Dank für euren Support!
KURZFASSUNG
- Ein 60-Jähriger ersetzte auf Basis einer ChatGPT-Antwort Kochsalz durch Bromid und erlitt eine schwere Vergiftung mit psychotischen Symptomen.
- Die Diagnose Bromismus wurde erst spät gestellt, da das Syndrom heute kaum bekannt ist und in der Anamnese unerwartet auftauchte.
- Der Fall zeigt, wie gefährlich KI-Empfehlungen sein können, wenn sie ohne Kontext oder Fachkenntnis umgesetzt werden.
- Mediziner warnen: Chatbots sind keine Quelle für Gesundheitsratschläge – erst recht nicht bei Ernährung oder Medikation.