Ein Copilot Roboter ließt heimlich Emails

Microsoft-365-Bug: Copilot verarbeitet geschützte und vertrauliche E-Mails

Der jüngste Copilot-Bug zeigt eindrucksvoll, warum tiefe KI-Integrationen in Firmennetzwerken für Administratoren ein hohes Sicherheitsrisiko bleiben.

Andreas Becker Nano Banana
Ein Copilot Roboter ließt heimlich Emails

Ein Softwarefehler in Microsoft 365 führte in den vergangenen Wochen dazu, dass der KI-Assistent Copilot vertrauliche Outlook-E-Mails auslas und in seinen Zusammenfassungen wiedergab. Die Künstliche Intelligenz ignorierte dabei aktiv gesetzte Sicherheitsrichtlinien und Schutzetiketten der Administratoren.

Schutzmechanismen ausgehebelt

Der Fehler betraf das Zusammenspiel zwischen dem Copilot Chat und den sogenannten Data-Loss-Prevention-Richtlinien (DLP) von Microsoft. Diese DLP-Vorgaben scannen Dokumente sowie Nachrichten nach sensiblen Mustern wie Kreditkartennummern oder internen Projektcodes und blockieren definierte Aktionen.

Im konkreten Fall durchbrach die KI-Assistenz diese administrativen Barrieren jedoch vollständig. E-Mails, die von Absendern mit spezifischen Sensibilitäts-Labels markiert wurden, flossen ungehindert in die generierten Chat-Antworten ein.

Nutzer erhielten dadurch Zusammenfassungen von Nachrichten, deren Verarbeitung durch algorithmische Systeme eigentlich auf Netzwerkebene untersagt war.

Anzeige

Patch auf den Servern verteilt

Microsoft bestätigte die Schwachstelle und implementierte mittlerweile ein serverseitiges Update, das die fehlerhafte Rechteprüfung korrigiert. Der Redmonder Konzern verzichtete auf genaue Angaben darüber, wie viele Unternehmenskunden von der fehlerhaften Datenverarbeitung innerhalb ihrer IT-Umgebungen betroffen waren.

Technisch betrachtet beschränkte sich das Auslesen der geschützten Daten auf den jeweiligen Nutzerkontext. Der Copilot gab die Informationen aus den blockierten E-Mails nur an jene Anwender aus, die ohnehin einen regulären Lesezugriff auf das jeweilige Postfach besaßen. Eine Ausweitung der Zugriffsrechte, durch die Nutzer auf fremde Postfächer hätten zugreifen können, fand laut den vorliegenden Fehlerberichten nicht statt. Dennoch stellt die Umgehung der DLP-Richtlinien einen harten Verstoß gegen gängige Compliance-Vorgaben dar.

Wachsende Skepsis bei Unternehmens-KI

Fehler bei der Zugriffssteuerung verstärken die aktuelle Skepsis gegenüber der tiefen Integration von Sprachmodellen in Unternehmensnetzwerke. Solche Compliance-Risiken rufen zunehmend institutionelle Gegenmaßnahmen auf den Plan.

Erst vor wenigen Tagen blockierte das Europäische Parlament die Nutzung von generativen KI-Tools auf den Dienstgeräten seiner Abgeordneten und verwies dabei explizit auf unkontrollierbare Sicherheitsrisiken im Umgang mit sensiblen Daten.

Microsoft hat das erforderliche Update für den Copiloten nun automatisch auf seinen Servern eingespielt, sodass Systemadministratoren keine weiteren manuellen Schritte auf den Endgeräten der Mitarbeiter durchführen müssen.

KI-Wissen ohne Paywall

Unsere Inhalte sind und bleiben kostenlos. Wenn dir unsere News und Tutorials gefallen oder weiterhelfen, freuen wir uns über eine kleine Unterstützung.

Jeder Beitrag zählt – auch das Teilen.