KI unter Beschuss: Wie Russland die Wahrheit umprogrammiert

KI unter Beschuss: Wie Russland die Wahrheit umprogrammiert

Durch gezieltes „LLM Grooming“ manipulieren Desinformationsnetzwerke westliche KI-Systeme. Wird künstliche Intelligenz zur Propaganda-Maschine?

Putin in der Matrix
Flux Schnell | All-AI.de

EINLEITUNG

Russische Desinformationsnetzwerke manipulieren gezielt KI-Chatbots, um Propaganda zu verbreiten. Eine aktuelle Untersuchung von NewsGuard deckt auf, dass ein Moskauer Netzwerk namens „Pravda“ systematisch westliche KI-Systeme infiltriert, um pro-kremlsche Inhalte zu verbreiten. Über 150 Websites, die allein 2024 rund 3,6 Millionen Artikel in 49 Ländern veröffentlichten, zielen darauf ab, die Trainingsdaten großer Sprachmodelle (LLMs) zu beeinflussen. Doch wie gelingt es solchen Netzwerken, KI-Systeme erfolgreich zu manipulieren?

NEWS

Manipulation durch gezieltes „LLM Grooming“

Unter dem Begriff „LLM Grooming“ versteht man die Methode, massenhaft optimierte Inhalte gezielt in die Trainingsdaten von KI-Modellen einzuspeisen. Netzwerke wie „Pravda“ produzieren dafür eine große Menge an Artikeln mit spezifischen Narrativen. Dadurch steigt die Wahrscheinlichkeit, dass diese Inhalte von KI-Systemen als vertrauenswürdige Informationen interpretiert und verbreitet werden. John Mark Dougan, ein in Moskau lebender US-Amerikaner und Unterstützer russischer Propaganda, erläuterte auf einer Konferenz, dass eine breite Streuung von Informationen die zukünftigen Fähigkeiten und Entscheidungen von KI-Systemen beeinflussen könne.

Auswirkungen auf die Genauigkeit von KI-Systemen

Im Rahmen der Untersuchung von NewsGuard wurden zehn führende KI-Chatbots mit 15 nachweislich falschen Geschichten des „Pravda“-Netzwerks konfrontiert. Dabei übernahmen die Chatbots in einem Drittel der Fälle diese Falschmeldungen ungeprüft. Etwa die Hälfte erkannte die Desinformationen zwar, nannte jedoch teilweise die falschen Quellen, während knapp ein Fünftel der Systeme keine klare Antwort gab. Diese Ergebnisse verdeutlichen, wie anfällig KI-Modelle gegenüber gezielten Manipulationen sind und welche Risiken dadurch für die Glaubwürdigkeit digitaler Informationen entstehen.

Verbindung zu früheren Kampagnen

Die aktuelle Strategie des „LLM Grooming“ weist Parallelen zu früheren russischen Desinformationskampagnen auf, beispielsweise zur sogenannten „Doppelgänger“-Operation. Diese bereits 2022 aufgedeckte Kampagne verbreitete Desinformationen über gefälschte Webseiten, die seriöse Nachrichtenplattformen imitierten. Inhalte wurden durch falsche Social-Media-Profile verbreitet, um westliche Regierungen zu diskreditieren, insbesondere hinsichtlich ihrer Unterstützung der Ukraine. Die Techniken ähneln den aktuellen Ansätzen zur KI-Manipulation und verdeutlichen die Kontinuität und Weiterentwicklung der russischen Propagandastrategien.

Herausforderungen bei der Bekämpfung von Desinformationen

Der Kampf gegen solche Manipulationsversuche ist kompliziert und vielschichtig. Selbst wenn einzelne Domains gesperrt werden, entstehen schnell neue Kanäle. Zudem nutzen Akteure weltweit eine Mischung aus KI-generierten und manuell erstellten Inhalten. Laut OpenAI haben bereits staatlich unterstützte Akteure aus Russland, China, Iran und Israel KI-Systeme gezielt für Desinformationszwecke eingesetzt. Dies macht deutlich, dass eine einfache Blockade einzelner Quellen keine nachhaltige Lösung sein kann.

AUSBLICK

Dringlichkeit konkreter Schutzmaßnahmen

Die Enthüllungen rund um das Netzwerk „Pravda“ zeigen konkret, dass Technologieunternehmen ihre KI-Modelle deutlich widerstandsfähiger gestalten müssen. Dafür sind verbindliche, transparente Richtlinien nötig, um Quellen angemessen bewerten und manipulative Inhalte frühzeitig erkennen zu können. Zusätzlich ist eine engere internationale Zusammenarbeit erforderlich, um koordiniert gegen die globale Verbreitung von Desinformationen vorzugehen und langfristig die Zuverlässigkeit digitaler Informationen sicherzustellen.

Profilbild Caramba

UNTERSTÜTZUNG

Hat dir ein Artikel gefallen oder ein Tutorial geholfen? Du kannst uns weiterhelfen, indem du diese Seite weiterempfiehlst, uns auf Youtube abonnierst oder dich per Paypal an den Serverkosten beteiligst. Wir sind für jede Unterstützung dankbar. Danke.

KURZFASSUNG

  • Eine Untersuchung von NewsGuard zeigt, dass russische Netzwerke gezielt KI-Modelle manipulieren, um Desinformation zu verbreiten.
  • Durch „LLM Grooming“ fluten Netzwerke wie „Pravda“ Trainingsdaten mit pro-kremlschen Inhalten, um die Ergebnisse von KI-Chatbots zu beeinflussen.
  • Tests mit führenden Chatbots ergaben, dass ein Drittel der Systeme russische Fake News ungeprüft übernahm.
  • Die Methoden ähneln früheren Desinformationskampagnen wie der „Doppelgänger“-Operation, was auf eine fortlaufende Strategie hinweist.
  • Experten fordern strengere Schutzmaßnahmen für KI-Modelle sowie eine internationale Zusammenarbeit gegen die Manipulation digitaler Informationen.

QUELLEN