Anthropic spendet 20 Millionen Dollar für politische KI-Regulierung
Der KI-Entwickler finanziert US-Wahlkampf, um Sicherheitsgesetze und staatliche Kontrolle bei den Midterms 2026 durchzusetzen.

Der KI-Entwickler Anthropic greift aktiv in die US-Innenpolitik ein und spendet 20 Millionen US-Dollar an die Organisation „Public First Action“. Mit diesem Kapital sollen im Vorfeld der US-Zwischenwahlen 2026 gezielt Kandidaten unterstützt werden, die sich für striktere Sicherheitsvorgaben und staatliche Regulierung von Künstlicher Intelligenz einsetzen.
Strategische Einflussnahme auf die Midterms
Die Summe fließt an ein sogenanntes Super PAC (Political Action Committee). Diese Organisationsform erlaubt es in den Vereinigten Staaten, unbegrenzte Mittel von Unternehmen oder Einzelpersonen anzunehmen, um damit unabhängig von den Kandidaten Wahlwerbung zu finanzieren. Der Zeitpunkt der Spende ist taktisch gewählt: Im November 2026 stehen die „Midterms“ an, bei denen Teile des Kongresses neu gewählt werden. Anthropic zielt darauf ab, die politische Landschaft zugunsten von Abgeordneten zu verschieben, die technische Sicherheitsmechanismen nicht nur befürworten, sondern gesetzlich verankern wollen.
Bislang positionierte sich das Unternehmen hinter dem Sprachmodell Claude primär durch technische Sicherheitsforschung („Constitutional AI“). Dieser finanzielle Schritt markiert den Übergang von theoretischen Sicherheitskonzepten zu direkter Realpolitik. Das Unternehmen macht damit deutlich, dass freiwillige Selbstverpflichtungen der Industrie aus seiner Sicht nicht mehr ausreichen.
Anzeige
Regulierung als Wettbewerbsfaktor
Die Unterstützung von „Public First Action“ deutet auf eine spezifische Vorstellung von Regulierung hin. Im Fokus stehen voraussichtlich Maßnahmen zur Eindämmung existenzieller Risiken, wie etwa die Nutzung von KI für Biowaffen oder massive Cyberangriffe. Anthropic fordert seit Längerem verbindliche Tests für Frontier-Modelle vor deren Veröffentlichung.
Branchenbeobachter werten diesen Schritt jedoch nicht nur altruistisch. Strenge Regulierungen und hohe Sicherheitsstandards erzeugen Markteintrittsbarrieren. Diese sind für kapitalkräftige Akteure wie Anthropic, Google oder OpenAI leichter zu bewältigen als für Open-Source-Projekte oder kleine Startups. Kritiker sehen hier die Gefahr von „Regulatory Capture“ – der Versuch etablierter Firmen, Gesetze so zu gestalten, dass sie den eigenen Marktstatus schützen.
Abgrenzung im Silicon Valley
Mit dieser offensiven Strategie setzt sich Anthropic von Teilen des Silicon Valley ab, die staatliche Eingriffe traditionell ablehnen. Während einige Investoren und Tech-Firmen eine ungebremste Beschleunigung der Entwicklung fordern, setzt Anthropic auf eine kontrollierte Skalierung unter staatlicher Aufsicht. Ob der finanzielle Einsatz ausreicht, um die komplexe US-Gesetzgebung gegen den Widerstand anderer Interessengruppen tatsächlich zu beschleunigen, wird der Wahlausgang im Herbst zeigen.