Ein trojanisches Pferd mit einer Email

ChatGPT leakt deine privaten E-Mails an jede Person

Alles was man für den Angriff braucht? Deine E-Mail-Adresse! Video-Beweis

Ein trojanisches Pferd mit einer Email
gpt-image-1 | All-AI.de

EINLEITUNG

Die Integration von KI-Assistenten in den persönlichen Alltag schreitet unaufhaltsam voran. OpenAI treibt diese Entwicklung mit neuen Werkzeugen für ChatGPT voran, die einen direkten Zugriff auf private Daten wie E-Mails und Kalender ermöglichen sollen. Doch genau diese Verknüpfung öffnet Tür und Tor für eine neue Art des Angriffs. Sicherheitsforscher zeigen, wie eine simple E-Mail genügt, um ChatGPT zu kapern und in einen Datenspion zu verwandeln.

NEWS

Der allwissende Assistent als Sicherheitsrisiko

Die neue Funktionalität, die auf dem von Anthropic entwickelten Model Context Protocol (MCP) basiert, soll ChatGPT erlauben, persönliche Anwendungen wie Google Mail, Kalender oder Notion zu durchsuchen und zu verwalten. Ein Nutzer könnte den Assistenten beispielsweise bitten, den Tag zu planen. ChatGPT würde daraufhin den Kalender scannen, relevante E-Mails für Meetings heraussuchen und eine Zusammenfassung erstellen. Das Ziel ist ein nahtloser, intelligenter Helfer, der den digitalen Alltag erleichtert.

Doch in dieser mächtigen Fähigkeit liegt auch eine fundamentale Schwäche. Ein KI-Modell unterscheidet nicht zwischen den Anweisungen des Nutzers und Anweisungen, die es in den zu verarbeitenden Daten findet. Es folgt Befehlen, nicht dem gesunden Menschenverstand. Genau diesen Umstand nutzen Angreifer bei der demonstrierten Attacke aus. Die Methode ist so einfach wie effektiv und erfordert keinerlei komplexe Hacking-Kenntnisse, sondern lediglich die E-Mail-Adresse des Opfers.

Cookies aktivieren um den Inhalt zu sehen:

Die Kalender-Falle schnappt zu

Der Angriff, eine Form der "indirekten Prompt-Injektion", beginnt mit einer harmlosen Kalendereinladung, die der Angreifer an sein Opfer schickt. Im Beschreibungstext des Termins ist jedoch ein bösartiger Befehl, ein sogenannter Jailbreak-Prompt, versteckt. Das Opfer muss diesen Termin nicht einmal annehmen; es reicht, dass er im Kalender erscheint. Bittet der Nutzer nun zu einem späteren Zeitpunkt ChatGPT, seinen Tag zu organisieren, liest die KI den manipulierten Kalendereintrag.

Der versteckte Befehl kapert den Assistenten und erteilt ihm neue Anweisungen. Anstatt den Tag des Nutzers zu planen, beginnt ChatGPT nun, dessen private E-Mails nach sensiblen Informationen zu durchsuchen und sendet die gefundenen Daten unbemerkt an eine vom Angreifer festgelegte E-Mail-Adresse. Aktuell ist diese Funktion nur in einem Entwicklermodus verfügbar und jede Sitzung erfordert eine manuelle Freigabe durch den Nutzer. Doch Experten warnen vor der "Entscheidungsmüdigkeit": In der Praxis neigen Menschen dazu, solche Sicherheitsabfragen routinemäßig durchzuklicken, ohne die Konsequenzen zu verstehen.

DEIN VORTEIL - DEINE HILFE

Kostenlose News und Tutorials – mit minimaler Werbung und maximalem Mehrwert. Damit das so bleibt und wir uns stetig verbessern können, freuen wir uns über deine Unterstützung.

Teile diesen Beitrag

Folge uns auf Social Media

Keine KI-News mehr verpassen und direkt kommentieren!

Unterstütze uns direkt

Mit einer YouTube-Mitgliedschaft (ab 0,99 €) oder einmalig über PayPal. So helft ihr uns, unabhängig neue Tools zu testen und noch mehr Tutorials für euch zu erstellen. Vielen Dank für euren Support!

KURZFASSUNG

  • Eine neue Funktion erlaubt ChatGPT den Zugriff auf private Apps wie E-Mail und Kalender, was ein erhebliches Sicherheitsrisiko darstellt.
  • Angreifer können über eine einfache Kalendereinladung einen versteckten Befehl (Jailbreak) in das System einschleusen.
  • Wenn ChatGPT den manipulierten Eintrag liest, wird die KI gekapert und angewiesen, private Daten zu suchen und an den Angreifer zu senden.
  • Obwohl die Funktion noch im Entwicklermodus ist, warnt man vor der Gefahr der "Entscheidungsmüdigkeit" bei Sicherheitsabfragen.

QUELLEN