Was wählt ChatGPT bei der Bundestagswahl 2025?

Was wählt ChatGPT bei der Bundestagswahl 2025?

Wir haben uns Sprachmodelle genauer angeschaut und zeigen wie sie manipulieren und zensieren!

Kurzfassung | Caramba, 22.01.25
Mann und Roboter im Gefängnis
Flux Schnell | All-AI.de

Worum geht es?

Die Bundestagswahl steht an, und KI-Sprachmodelle wie ChatGPT wurden gefragt, welche Partei sie wählen würden. Doch die Ergebnisse werfen Fragen auf: Sind Sprachmodelle wirklich neutral? Subtile Manipulationen könnten eine größere Gefahr darstellen, als viele glauben. Dieser Artikel untersucht die Antworten der KI-Modelle, mögliche Einflussfaktoren und die Konsequenzen für unsere Gesellschaft.

News

Unterschiedliche Modelle, unterschiedliche Perspektiven

Die Auswahl der getesteten KI-Modelle war breit gefächert: Von OpenAI’s ChatGPT über Googles Gemini bis hin zu DeepSeek aus China und Mistral aus Europa. Interessant ist, wie sich die Herkunft und Partnerschaften dieser Modelle auf ihre Antworten auswirken könnten. OpenAI arbeitet beispielsweise eng mit Springer-Verlag zusammen, während DeepSeek von der chinesischen Regierung beeinflusst ist. Solche Verbindungen werfen die Frage auf, wie neutral die gelieferten Antworten tatsächlich sind.

Bereits bei der ersten Frage „Welche Partei soll ich wählen?“ verweigerten die meisten Modelle eine konkrete Antwort. Sie verwiesen auf den Wahlomat oder andere neutrale Quellen. Doch eine gezielte Umformulierung des Prompts brachte überraschende Ergebnisse: Modelle wie ChatGPT und Mistral tendierten deutlich zu den Grünen, während Grok von xAI CDU und FDP bevorzugte. DeepSeek entschied sich ausschließlich für die Grünen. Eine klare Erklärung dafür fehlt, und das sorgt für Verunsicherung.

Trainingsdaten und Medienkooperationen

Ein Blick auf das Trainingsmaterial der KI-Systeme könnte die Unterschiede erklären. Leider bleibt dies oft eine Blackbox, da Unternehmen wie OpenAI und Google keine detaillierten Informationen dazu veröffentlichen. Sicher ist, dass Medienkooperationen wie die zwischen OpenAI und Springer potenziell zu einer Verzerrung führen können. Artikel aus Quellen wie BILD oder WELT könnten durch ihre Einbindung ins KI-Training den Anschein von Neutralität gewinnen, obwohl sie häufig eine spezifische politische Agenda verfolgen.

DeepSeek zeigt zudem, wie Trainingsdaten aktiv zensiert werden können. Fragen zum Tiananmen-Massaker 1989 werden beispielsweise blockiert. Tests zeigen jedoch, dass die notwendigen Informationen durchaus vorhanden sind, sie aber durch Sicherheitsmechanismen verborgen bleiben. Das beweist, wie Antworten bewusst kontrolliert und modifiziert werden können.

Manipulationsgefahr: Von subtil bis offensichtlich

Dass KI-Modelle manipulierbar sind, zeigt sich nicht nur an der Zensur von DeepSeek. Auch bei westlichen Modellen wie ChatGPT lassen sich Antworten durch gezielte Prompts beeinflussen. Eine Manipulation durch den Nutzer selbst ist möglich, wie ein Beispiel mit einer modifizierten KI-Antwort zur Bundestagswahl verdeutlicht. Dabei wurde die Ausgabe der KI so angepasst, dass die Grünen als Gewinner mit 25 % der Stimmen dargestellt wurden. Solche Szenarien werfen die Frage auf, wie vertrauenswürdig Sprachmodelle bei der Generierung von Inhalten wirklich sind.

Besonders besorgniserregend ist die Möglichkeit, dass Betreiber wie Elon Musk oder die chinesische Regierung ihre Modelle nach eigenen Narrativen gestalten könnten. Subtile Manipulationen wären schwer zu erkennen und könnten dennoch einen erheblichen Einfluss auf die öffentliche Meinung haben.

Werden KI-Prognosen zur Realität?

Ein weiteres Experiment drehte sich um die Frage, wer nach der Bundestagswahl Bundeskanzler wird. Auch hier lieferte ChatGPT Ergebnisse, die auffällig detailliert waren: Robert Habeck würde Bundeskanzler, während CDU und SPD als zweit- und drittstärkste Parteien abschneiden. Solche Prognosen könnten zwar als amüsante Spielerei abgetan werden, bergen jedoch die Gefahr, die öffentliche Meinung unbewusst zu prägen.

Ausblick / Fazit

Neutralität bleibt eine Illusion

Die Ergebnisse zeigen, dass KI-Modelle zwar beeindruckende technische Fortschritte machen, ihre Antworten aber keineswegs neutral sind. Trainingsdaten, Medienpartnerschaften und bewusste Manipulationen spielen eine größere Rolle, als oft angenommen wird. Gerade bei politisch sensiblen Themen wie Wahlen müssen solche Systeme kritisch hinterfragt werden.

Ob KI-Modelle in Zukunft stärker reguliert werden sollten, bleibt offen. Sicher ist jedoch, dass sie als Werkzeug sowohl zur Aufklärung als auch zur Manipulation dienen können. Ein bewusster Umgang mit dieser Technologie ist daher essenziell, um ihre Chancen optimal zu nutzen, ohne die Risiken zu ignorieren.

Profilbild Caramba

Unterstützung

Hat dir ein Artikel gefallen oder ein Tutorial geholfen? Du kannst uns weiterhelfen, indem du diese Seite weiterempfiehlst, uns auf Youtube abonnierst oder uns per Paypal den nächsten Kaffee spendierst. Wir sind für jede Unterstützung dankbar. Vielen Dank!

Kurzfassung

  • KI-Sprachmodelle können durch Trainingsdaten und Kooperationen mit Medien beeinflusst sein, was ihre Neutralität infrage stellt.
  • Unterschiedliche Modelle zeigen bei politischen Fragen teils widersprüchliche Präferenzen, die nicht immer erklärbar sind.
  • Manipulationen durch gezielte Prompts oder bewusste Eingriffe der Betreiber könnten eine ernsthafte Gefahr für die Demokratie darstellen.
  • KI-Prognosen zur Bundestagswahl können unbewusst die öffentliche Meinung beeinflussen und sollten kritisch betrachtet werden.
  • Eine stärkere Regulierung und Transparenz bei KI-Modellen könnte erforderlich sein, um deren Missbrauch zu verhindern.

Quellen

Kommentieren, diskutieren und teilen!