Ein Anthropic Institute mit einer Zeichnung

Anthropic Institute erforscht die Folgen der Künstlichen Intelligenz

Ein interdisziplinäres Team aus Ökonomen und Machine-Learning-Experten analysiert künftig die Risiken und Chancen von Sprachmodellen wie Claude.

Andreas Becker Nano Banana
Ein Anthropic Institute mit einer Zeichnung

Das KI-Unternehmen Anthropic bündelt seine Forschungsbemühungen in einem neuen internen Thinktank. Das sogenannte "Anthropic Institute" soll die langfristigen Auswirkungen leistungsstarker KI-Modelle auf Wirtschaft, Gesellschaft und Sicherheit untersuchen und steuern.

Interdisziplinäre Forschung unter einem Dach

Das neu gegründete Institut vereint drei bisher getrennte Forschungsgruppen des Unternehmens. Dazu gehören das "Frontier Red Team", das die Leistungsgrenzen der Modelle durch gezielte Stresstests prüft, sowie die beiden Abteilungen für gesellschaftliche und wirtschaftliche Auswirkungen. Ein interdisziplinäres Team aus rund 30 Fachleuten nimmt dort ab sofort die Arbeit auf. Es besteht aus Experten für Machine Learning, Ökonomen und Sozialwissenschaftlern. Die Leitung übernimmt Anthropic-Mitgründer Jack Clark in seiner neuen Rolle als Verantwortlicher für den öffentlichen Nutzen.

Die Struktur zielt darauf ab, den exklusiven Einblick eines KI-Entwicklers in handfeste Daten zu übersetzen. Ein erstes fortlaufendes Projekt ist der "Economic Index". Dieser liefert regelmäßig Informationen darüber, wie die Technologie bereits heute den Arbeitsmarkt beeinflusst. Das Institut sucht zudem gezielt den Dialog mit Branchen und Arbeitnehmern, die durch die voranschreitende Automatisierung vor beruflichen Veränderungen stehen.

Twitter Beitrag - Cookies links unten aktivieren.

Fokus auf Sicherheit und Modellverhalten

Die Forscher konzentrieren sich bei ihrer Arbeit auf vier zentrale Herausforderungen. Neben der Wirtschaft stehen vor allem Sicherheitsfragen im Vordergrund. Die Experten analysieren, wie Gesellschaften widerstandsfähiger gegen einen möglichen Missbrauch der Technologie werden. Gleichzeitig untersuchen sie das Verhalten der Modelle in der Praxis. Sie wollen nachvollziehen, welche Werte fortgeschrittene KI-Systeme entwickeln und wie diese wiederum menschliches Verhalten langfristig beeinflussen.

Ein weiteres wichtiges Forschungsfeld ist die zukünftige Governance von Künstlicher Intelligenz. Die Wissenschaftler widmen sich der Frage, wie Menschen die Kontrolle behalten, wenn KI-Systeme beginnen, sich autonom weiterzuentwickeln. Dafür baut das Institut aktuell zusätzliche Teams auf, die den technischen Fortschritt prognostizieren und die Interaktion der Technologie mit dem Justizsystem bewerten.

Anzeige

Ein politisches Signal zur rechten Zeit

Die Gründung des Thinktanks fällt in eine unruhige Phase für den Entwickler des Sprachmodells Claude. Das Unternehmen befindet sich derzeit in einem rechtlichen Streit mit dem US-Verteidigungsministerium, nachdem es den Einsatz seiner Technologie für autonome Waffen und Massenüberwachung konsequent abgelehnt hatte.

Das Institut soll nun dazu beitragen, faktenbasierte Antworten auf die wachsenden Risiken der Technologie zu finden. Um den Austausch mit der Politik zu stärken, plant das Unternehmen zudem ein neues Büro in Washington, D.C., das sich auf nationale Sicherheit und KI-Infrastruktur konzentrieren wird. Die gewonnenen Erkenntnisse teilt Anthropic künftig regelmäßig mit externen Forschern und der Öffentlichkeit, um eine breite Basis für zukünftige Technologie-Entscheidungen zu schaffen.

KI-Wissen ohne Paywall

Unsere Inhalte sind und bleiben kostenlos. Wenn dir unsere News und Tutorials gefallen oder weiterhelfen, freuen wir uns über eine kleine Unterstützung.

Jeder Beitrag zählt – auch das Teilen.