Ein Amazon Rechenzentrum mit einem KI-Roboter-Agenten-Saboteur

Wenn die eigene künstliche Intelligenz das System lahmlegt

Amazon macht menschliches Versagen für zwei Ausfälle bei AWS verantwortlich, nachdem Entwickler fehlerhaften KI-Code ungeprüft übernahmen.

Andreas Becker Nano Banana
Ein Amazon Rechenzentrum mit einem KI-Roboter-Agenten-Saboteur

Interne KI-Programmierassistenten von Amazon haben offenbar zu mindestens zwei Systemausfällen bei den Cloud-Diensten von AWS geführt. Laut Informationen der Financial Times generierten die Modelle fehlerhaften Code, der von den Entwicklern in kritische Produktionsumgebungen übernommen wurde.

Mangelnde Code-Prüfung führt zu Störungen

Bei den Vorfällen stehen die Amazon-eigenen KI-Assistenten Kiro und Q Developer im Zentrum. Diese Systeme generieren eigenständig Code-Vorschläge, um Softwareentwickler bei ihrer täglichen Arbeit zu entlasten und Prozesse zu beschleunigen.

Der ausgegebene Code enthielt jedoch in mindestens zwei Fällen schwerwiegende Logikfehler.

Die zuständigen Mitarbeiter überprüften die vorgeschlagenen Zeilen offensichtlich nicht ausreichend und pflegten sie direkt in die aktiven Systeme ein. Dies löste in der Folge messbare Ausfälle innerhalb der Cloud-Infrastruktur aus.

Anzeige

Amazon sieht menschliches Versagen

Der Konzern weist eine direkte Schuld der künstlichen Intelligenz an den Abstürzen strikt zurück. Das Unternehmen argumentiert, dass die KI lediglich als Assistenz fungiere und keine eigenständigen Änderungen an den Servern vornehme.

Die finale Verantwortung für die Qualitätssicherung liege laut Amazon ausschließlich bei den Entwicklern. Diese müssen jeden von der KI generierten Code-Block manuell verifizieren und testen, bevor er für den Live-Betrieb freigegeben wird. Entwickler verursachten die Störungen direkt mit, weil sie die fehlerhaften KI-Ausgaben ungeprüft akzeptierten.

Technische Tücken der Code-Generierung

Die Ausfälle verdeutlichen ein generelles Problem beim Einsatz großer Sprachmodelle in der professionellen Softwareentwicklung. Die künstliche Intelligenz produziert oft syntaktisch korrekt wirkenden, aber im spezifischen Kontext logisch fehlerhaften Code. Sie erfasst komplexe Systemabhängigkeiten in umfassenden Architekturen nicht immer vollständig.

Zudem wiesen die genutzten Plugins laut jüngsten Security Bulletins von AWS eigene technische Schwachstellen auf. Sicherheitsforscher entdeckten in der Vergangenheit beispielsweise Anfälligkeiten für Prompt Injections innerhalb der Entwicklungsumgebungen.

Unternehmen müssen daher zwingend mehrstufige Testverfahren etablieren, um unbrauchbare KI-Vorschläge vor dem produktiven Einsatz abzufangen.

KI-Wissen ohne Paywall

Unsere Inhalte sind und bleiben kostenlos. Wenn dir unsere News und Tutorials gefallen oder weiterhelfen, freuen wir uns über eine kleine Unterstützung.

Jeder Beitrag zählt – auch das Teilen.