GPT-5 im Propaganda-Check: Wie uns die KI beeinflusst
OpenAI behauptet, die politische Voreingenommenheit um 30 Prozent reduziert zu haben, aber was steckt wirklich hinter diesen Zahlen?

OpenAI hat eine neue Studie veröffentlicht, die eine signifikante Reduzierung politischer Voreingenommenheit in seinen neuesten KI-Modellen belegen soll. Laut dem Unternehmen zeigen die GPT-5-Modelle eine um 30 Prozent geringere politische Schlagseite. Diese Ankündigung fällt in eine Zeit hitziger Debatten um KI-Neutralität.
Neutralität auf dem Prüfstand
Das KI-Unternehmen hat ein internes Testverfahren entwickelt, um politische Tendenzen zu messen. Das zuständige "Model Behaviour"-Team prüfte die Reaktionen der KI auf rund 500 verschiedene Anfragen. Diese deckten 100 politische und kulturelle Themen ab und wurden aus verschiedenen ideologischen Perspektiven formuliert, von neutral bis emotional aufgeladen. Die Forscher identifizierten dabei fünf Arten von Verzerrungen, darunter das Äußern persönlicher Meinungen oder die einseitige Darstellung von Sachverhalten.
Die neuen Modelle, GPT-5 Instant und GPT-5 Thinking, schnitten im Vergleich zu den Vorgängern GPT-4o und o3 deutlich besser ab. Sie zeigten sich widerstandsfähiger gegenüber provokanten Anfragen. Laut OpenAI weisen Analysen von realen Nutzerdaten darauf hin, dass weniger als 0,01 Prozent aller ChatGPT-Antworten Anzeichen politischer Voreingenommenheit enthalten. Eine interessante Beobachtung war, dass stark liberal formulierte Anfragen tendenziell mehr Voreingenommenheit hervorriefen als konservative.
Politischer Gegenwind und Expertenzweifel
Die Veröffentlichung der Studie erfolgt vor dem Hintergrund eines wachsenden politischen Drucks in den USA. Die Trump-Administration fordert von KI-Unternehmen ideologisch neutrale Modelle. Eine entsprechende Executive Order aus dem Juli 2025 verbietet US-Behörden die Beschaffung von KI-Systemen, die als "woke" eingestuft werden könnten. OpenAI steht damit vor der Herausforderung, die Neutralität seiner Modelle zu beweisen.
Gleichzeitig äußern unabhängige Experten Kritik. Sie bemängeln die fehlende Transparenz der internen Studie, da OpenAI weder die genutzten Testfragen noch die vollständige Methodik offengelegt hat. Kritiker argumentieren, dass interne Bewertungen oft nicht das messen, was sie zu messen vorgeben. Die Frage bleibt, ob eine KI, die auf von Menschen erstellten Daten trainiert wurde, jemals vollständig neutral sein kann.
Regulierung und die offene Zukunftsfrage
Während in den USA der politische Druck wächst, schafft die Europäische Union mit dem AI Act einen rechtlichen Rahmen. Artikel 10 des Gesetzes verpflichtet Anbieter von Hochrisiko-KI-Systemen, Voreingenommenheit in ihren Datensätzen zu erkennen und zu minimieren. OpenAI selbst räumt ein, dass die Beseitigung ideologischer Tendenzen in Sprachmodellen eine ungelöste Forschungsaufgabe bleibt. Das Unternehmen hat weitere Ergebnisse für die kommenden Monate angekündigt. Die Debatte um die Definition von Fairness und Neutralität in der KI hat damit erst begonnen.
KI-Wissen ohne Paywall
Unsere Artikel, Tests und Tutorials bleiben kostenlos. Wenn dir die Inhalte helfen, unterstütze unsere Arbeit gern.
Danke dir – jeder Euro hilft ❤️