Dylan Scandinaro testet gefährliche Dinge

OpenAI holt Anthropic-Experten für hochdotierte Rolle des Sicherheitschefs

Dylan Scandinaro übernimmt die Leitung des Preparedness-Teams, um katastrophale Risiken kommender KI-Modelle frühzeitig zu erkennen.

Andreas Becker Nano Banana
Dylan Scandinaro testet gefährliche Dinge

OpenAI besetzt die vakante Position des „Head of Preparedness“ neu und bedient sich dabei bei der direkten Konkurrenz. Dylan Scandinaro wechselt vom KI-Labor Anthropic zu OpenAI, um künftige Risiken fortschrittlicher Modelle zu minimieren.

Fokus auf katastrophale Risiken

Das „Preparedness“-Team nimmt innerhalb von OpenAI eine Sonderstellung ein. Die Abteilung untersucht KI-Modelle auf potenziell schwerwiegende Gefahren, noch bevor diese veröffentlicht werden. Dazu gehören Szenarien aus den Bereichen Cybersicherheit sowie chemische, biologische, radiologische und nukleare Bedrohungen (CBRN).

Dylan Scandinaro bringt für diese Aufgabe spezifische Erfahrung mit. Er arbeitete zuvor im technischen Sicherheitsteam von Anthropic, einem der schärfsten Wettbewerber von OpenAI. Dort lag sein Schwerpunkt ebenfalls auf der Entwicklung von Strategien zur Risikominderung bei leistungsfähigen KI-Systemen.

Die Neubesetzung folgt auf den Abgang von Miles Brundage im vergangenen Oktober. Brundage hatte das Team ursprünglich aufgebaut, verließ das Unternehmen jedoch, um sich unabhängiger Sicherheitsforschung zu widmen. Die Vakanz hinterließ eine Lücke in einer kritischen Phase der Modellentwicklung.

Anzeige

Prominente Suche im Silicon Valley

Die Suche nach einem Nachfolger gestaltete sich öffentlichkeitswirksam. CEO Sam Altman warb persönlich auf der Plattform X für die Stelle und bezeichnete sie als eine der wichtigsten im Unternehmen. In der Stellenausschreibung wurde ein Jahresgehalt von bis zu 555.000 US-Dollar sowie ein Aktienpaket in Millionenhöhe in Aussicht gestellt.

Dieser Wechsel verdeutlicht den anhaltenden Wettbewerb um spezialisierte Fachkräfte im KI-Sektor. Anthropic wurde einst von ehemaligen OpenAI-Mitarbeitern gegründet, die Sicherheitsbedenken hatten. Nun fließt Expertise in die entgegengesetzte Richtung zurück zu OpenAI.

Vorbereitung auf leistungsfähigere Modelle

Der Zeitpunkt der Einstellung ist kein Zufall. OpenAI signalisiert, dass die nächste Generation von KI-Modellen kurz vor einem signifikanten Leistungssprung steht. Das Unternehmen spricht intern von „extrem leistungsfähigen Modellen“, deren Fähigkeiten die bisherigen Sicherheitsstandards herausfordern könnten.

Scandinaro soll sicherstellen, dass diese Systeme kontrollierbar bleiben. Seine Aufgabe wird es sein, die Grenzen der Technologie auszuloten und Schutzmechanismen zu implementieren. Sam Altman kommentierte die Besetzung mit dem Hinweis, dass die KI-Entwicklung derzeit schneller voranschreite als erwartet.

Die Position gilt intern als Belastungstest. Der Leiter muss zwischen dem Druck, neue Produkte zu veröffentlichen, und der Notwendigkeit strenger Sicherheitsprüfungen abwägen. Mit Scandinaro setzt OpenAI auf einen Experten, der diese Dynamik aus der Arbeit bei Anthropic bereits kennt.

KI-Wissen ohne Paywall

Unsere Inhalte sind und bleiben kostenlos. Wenn dir unsere News und Tutorials gefallen oder weiterhelfen, freuen wir uns über eine kleine Unterstützung.

Jeder Beitrag zählt – auch das Teilen.