KI-Waffen made by Google? Unternehmen kippt Selbstverbot
2018 lehnte Google den Einsatz von KI in Waffensystemen ab – jetzt wird das Verbot stillschweigend gestrichen. Was steckt dahinter?

Flux Schnell | All-AI.de
EINLEITUNG
Google hat kürzlich seine ethischen Leitlinien für Künstliche Intelligenz (KI) überarbeitet und dabei den bisherigen Ausschluss von Anwendungen im militärischen Bereich gestrichen. Diese Kehrtwende wirft Fragen zu den Beweggründen und möglichen Konsequenzen auf.
NEWS
Anpassung der KI-Grundsätze
Im Jahr 2018 hatte sich Google nach internen Protesten gegen die Beteiligung am militärischen Drohnenprogramm "Project Maven" dazu verpflichtet, keine KI für Waffensysteme oder Überwachungstechnologien zu entwickeln. Diese Selbstverpflichtung ist nun aus den aktuellen KI-Grundsätzen des Unternehmens verschwunden. Stattdessen betont Google allgemein, dass man KI im Einklang mit "breit akzeptierten Prinzipien des internationalen Rechts und der Menschenrechte" einsetzen wolle.
Begründung und neue Ausrichtung
In einem Blogbeitrag erklären James Manyika und Demis Hassabis von Google DeepMind, dass sich die Technologie seit 2018 rasant entwickelt habe und Demokratien bei der KI-Entwicklung führend sein sollten. Sie plädieren für eine Zusammenarbeit mit Regierungen und Organisationen, um KI zu entwickeln, die Menschen schützt, globales Wachstum fördert und die nationale Sicherheit unterstützt.
Reaktionen und Kritik
Die Änderung der Leitlinien stößt auf Kritik. Menschenrechtsorganisationen warnen vor den Risiken des Einsatzes von KI in automatisierten Waffensystemen. Bereits 2024 hatten fast 200 Mitarbeiter von Google DeepMind in einem offenen Brief gefordert, Verträge mit Militärs zu beenden. Die ehemalige Leiterin von Googles KI-Ethik-Team, Margaret Mitchell, äußerte Bedenken, dass die Streichung des Passus die bisherige Arbeit im Bereich ethischer KI untergrabe.
Branchenweiter Trend
Google ist nicht das einzige Technologieunternehmen, das seine Haltung gegenüber militärischen Anwendungen von KI überdenkt. Auch andere Firmen wie Meta und OpenAI haben ihre Zurückhaltung aufgegeben und kooperieren mittlerweile mit Verteidigungsbehörden. Dieser Trend wirft Fragen nach der Verantwortung der Tech-Industrie und den ethischen Implikationen solcher Partnerschaften auf.
AUSBLICK
Schade Google...
Googles Entscheidung, den Ausschluss von KI-Anwendungen für militärische Zwecke aus den Leitlinien zu entfernen, markiert einen bedeutenden Kurswechsel. Während das Unternehmen die Notwendigkeit betont, mit Regierungen zusammenzuarbeiten, um nationale Sicherheit und globales Wachstum zu fördern, bleiben ethische Bedenken hinsichtlich des Einsatzes von KI in Waffensystemen bestehen. Es bleibt abzuwarten, wie sich diese Neuausrichtung auf die Branche und die öffentliche Wahrnehmung auswirken wird.
UNTERSTÜTZUNG
Hat dir ein Artikel gefallen oder ein Tutorial geholfen? Du kannst uns weiterhelfen, indem du diese Seite weiterempfiehlst, uns auf Youtube abonnierst oder dich per Paypal an den Serverkosten beteiligst. Wir sind für jede Unterstützung dankbar. Danke.
KURZFASSUNG
- Google hat seine ethischen Leitlinien geändert und den Ausschluss von KI-Anwendungen für militärische Zwecke gestrichen.
- Das Unternehmen argumentiert, dass Demokratien bei der KI-Entwicklung führend bleiben müssen und betont eine Zusammenarbeit mit Regierungen.
- Menschenrechtsorganisationen und KI-Forscher kritisieren die Entscheidung scharf und warnen vor unkontrollierten Waffenentwicklungen.
- Auch andere Tech-Unternehmen wie Meta und OpenAI haben ihre Zurückhaltung gegenüber militärischer KI-Nutzung inzwischen aufgegeben.