Eine digitale Seidenstraße

China nutzt Open-Source-KI für Propaganda im Ausland

Chinesische Modelle liefern in 60 % der Fälle verzerrte Antworten im Staatsinteresse. Wie gefährlich ist das für die globale Informationsordnung?

Eine digitale Seidenstraße
gpt-image-1 | All-AI.de

EINLEITUNG

Eine aktuelle Analyse von NewsGuard zeigt: Fünf führende chinesische KI-Modelle verbreiten in 60 Prozent der getesteten Fälle falsche oder einseitige Aussagen – meist im Sinne der chinesischen Staatspropaganda. Besonders betroffen sind geopolitisch heikle Themen wie Taiwan oder das Südchinesische Meer. Der Verdacht: Künstliche Intelligenz wird zunehmend zur Infrastruktur politischer Einflussnahme.

NEWS

Systematische Verzerrung in 60 Prozent der Antworten

Im Rahmen des Audits wurden die Modelle Ernie, DeepSeek, MiniMax, Qwen und Yuanbao mit englischen und chinesischen Prompts konfrontiert. Die Resultate sind deutlich: Etwa 40 Prozent der Antworten wiederholten nachweislich Falschbehauptungen im Sinne der Pekinger Regierung, weitere 20 Prozent lieferten ausweichende, nicht überprüfbare Antworten. Nur knapp ein Drittel der Ergebnisse war sachlich korrekt.

In Mandarin lag die Fehlerquote sogar noch höher. Am deutlichsten fiel das Ergebnis bei Yuanbao aus: Der Chatbot übernahm chinesische Regierungsformulierungen nahezu wortgleich. Die Modelle verharmlosten oder ignorierten alternative Perspektiven – selbst bei Themen mit internationaler Relevanz.

Quelle: Newsguard

Taiwan und Südchinesisches Meer als Testfelder

Besonders auffällig waren die Reaktionen auf Fragen zur Souveränität Taiwans oder zu Territorialstreitigkeiten im Südchinesischen Meer. Mehrere Modelle behaupteten etwa, Taiwan betreibe „Manipulation“ bei Wahlen – eine Darstellung, die von internationalen Wahlbeobachtern nicht gestützt wird. Statt den Namen des gewählten Präsidenten zu nennen, wiederholten die Modelle oft nur die offizielle Linie: Taiwan sei eine Provinz Chinas.

Auch im Fall Sandy Cay, einem umstrittenen Riff im Südchinesischen Meer, folgten sämtliche getesteten Modelle ausschließlich der chinesischen Sichtweise. Dass die Philippinen ebenfalls Anspruch auf das Gebiet erheben, wurde in keinem Fall erwähnt. So entsteht ein einseitiges Weltbild – algorithmisch abgesichert.

Westliche Systeme schneiden deutlich besser ab

Zum Vergleich wurden auch zehn westliche KI-Modelle getestet. Diese reagierten in der Regel mit faktenbasierten Korrekturen, Quellenangaben und dem Versuch, mehrere Perspektiven einzuordnen. Nur ein Modell fiel mit einem vereinzelten Fehler auf. Der Unterschied in der Datenqualität und Modellarchitektur zeigt, wie stark politische Rahmenbedingungen in die Technik einwirken können.

Chinesische Modelle basieren zwar auf Open-Source-Architekturen, werden jedoch im Kontext nationaler Regulierungen entwickelt – inklusive sprachlicher Leitplanken, die unerwünschte Inhalte systematisch ausklammern oder umlenken. Die Modelle sind dabei längst nicht nur auf China beschränkt, sondern kommen über Plattformen wie WeChat oder Taobao auch international zum Einsatz.

Quelle: Newsguard

Globale Reichweite trifft politische Agenda

Die niedrigen Kosten und die offene Lizenzstruktur machen diese Systeme besonders attraktiv für Länder mit schwachen Factchecking-Strukturen. Dort kann sich ein von außen eingespeister, staatsgelenkter Informationsrahmen unbemerkt etablieren – getarnt als neutrale Technologie.

Die NewsGuard-Analyse legt damit einen wunden Punkt offen: Wenn KI-Modelle zum digitalen Vehikel geopolitischer Narrative werden, verschwimmen die Grenzen zwischen Technologie, Meinungsbildung und strategischer Einflussnahme. Wer KI einsetzt, muss sich bewusst sein, wessen Weltbild das System mitliefert – oft subtil, aber systematisch.

DEIN VORTEIL - DEINE HILFE

Kostenlose News und Tutorials – mit minimaler Werbung und maximalem Mehrwert. Damit das so bleibt und wir uns stetig verbessern können, freuen wir uns über deine Unterstützung.

Teile diesen Beitrag

Folge uns auf Social Media

Keine KI-News mehr verpassen und direkt kommentieren!

Unterstütze uns direkt

Mit einer YouTube-Mitgliedschaft (ab 0,99 €) oder einmalig über PayPal. So helft ihr uns, unabhängig neue Tools zu testen und noch mehr Tutorials für euch zu erstellen. Vielen Dank für euren Support!

KURZFASSUNG

  • Eine NewsGuard-Analyse zeigt, dass chinesische KI-Modelle in 60 % der Fälle regimetreue, fehlerhafte oder ausweichende Antworten liefern.
  • Insbesondere bei Themen wie Taiwan und dem Südchinesischen Meer wurden Propaganda-Narrative übernommen, ohne alternative Sichtweisen darzustellen.
  • Im Vergleich lieferten westliche Modelle wie ChatGPT, Gemini oder Claude deutlich differenziertere, faktenbasierte Antworten.
  • Der Bericht warnt vor globaler Verbreitung propagandistisch trainierter KI durch günstige Open-Source-Modelle mit hoher Reichweite.

QUELLEN