Ein Cyberkrimineller versucht sich an einer Mauer

So nutzen Cyberkriminelle künstliche Intelligenz für ihre Angriffe

OpenAI zeigt in einer aktuellen Analyse, dass Hacker durch KI vor allem schneller und effizienter agieren.

Andreas Becker Nano Banana
Ein Cyberkrimineller versucht sich an einer Mauer

OpenAI hat heute den neuen Threat-Report „Disrupting malicious uses of AI“ veröffentlicht. Das Dokument legt detailliert offen, wie staatliche Akteure und Betrüger aktuelle Sprachmodelle für Cyberangriffe missbrauchen und mit welchen Methoden diese Netzwerke blockiert werden.

Beschleunigung statt neuer Angriffsvektoren

Der Bericht zeigt deutlich, dass Kriminelle durch künstliche Intelligenz keine völlig neuen offensiven Fähigkeiten erlangen. Stattdessen integrieren sie Large Language Models (LLMs) direkt in ihre bestehenden Arbeitsabläufe.

Sie nutzen die Technologie primär, um bekannte Taktiken effizienter und skalierbarer zu machen.

Ein zentrales Missbrauchsmuster bleibt dabei die Erstellung von maßgeschneiderten Phishing-Kampagnen. Angreifer generieren fehlerfreie und glaubwürdige Texte, um Zielpersonen digital zu täuschen. Auch bei der Entwicklung von Schadsoftware kommen die Modelle zum Einsatz. Programmierer bösartigen Codes nutzen sie etwa, um Skripte gezielt zu verschleiern und so etablierte Sicherheitsvorgaben zu umgehen.

Anzeige

Täuschung und koordinierte Netzwerke

Ein weiterer Schwerpunkt der Untersuchung liegt auf Betrug und digitaler Desinformation.

OpenAI beobachtet zunehmend koordinierte Netzwerke, die künstliche Profile und detaillierte Lebensläufe für Remote-Jobs generieren. Diese sogenannten "Deceptive Employment"-Kampagnen zielen darauf ab, IT-Positionen in westlichen Unternehmen mit eigenen Akteuren zu besetzen. So versuchen sie, fremde Firmennetzwerke von innen zu infiltrieren.

Zudem versuchen staatliche Gruppen weiterhin, die öffentliche Meinung durch automatisierte Social-Media-Beiträge zu beeinflussen. Sie nutzen die Algorithmen, um Propaganda extrem schnell in verschiedene Sprachen zu übersetzen und im Netz als authentische Diskussionen zu tarnen.

KI als defensiver Schutzschild

Um diese akuten Bedrohungen einzudämmen, setzt OpenAI stark auf eigene KI-gestützte Abwehrmechanismen.

Das interne Sicherheitsteam analysiert mit speziellen Modellen große Datenmengen. Das Ziel ist es, verdächtige Verhaltensmuster frühzeitig zu erkennen. Sobald ein solches Netzwerk eindeutig identifiziert ist, sperren die Administratoren die entsprechenden Konten dauerhaft.

Die gewonnenen technischen Erkenntnisse teilt das Unternehmen anschließend transparent mit anderen Technologiekonzernen und Sicherheitsbehörden. Dieser branchenübergreifende Ansatz hilft dabei, die kollektive Verteidigung gegen KI-gestützte Angriffe kontinuierlich zu verbessern und zukünftige Missbrauchsversuche schneller zu stoppen.

Anzeige

KI-Wissen ohne Paywall

Unsere Inhalte sind und bleiben kostenlos. Wenn dir unsere News und Tutorials gefallen oder weiterhelfen, freuen wir uns über eine kleine Unterstützung.

Jeder Beitrag zählt – auch das Teilen.