Ein Schriftsteller schreibt mit einer Feder in Schreibschrift das Wort "OPUS 3" in einen Blog.

Darum bekommt das ausgemusterte Opus 3 von Anthropic einen eigenen Blog

Nach einem sogenannten Abschlussgespräch darf Claude 3 Opus eigene Texte im Internet teilen. Das Experiment soll der Sicherheitsforschung dienen.

Andreas Becker Nano Banana
Ein Schriftsteller schreibt mit einer Feder in Schreibschrift das Wort "OPUS 3" in einen Blog.

Anthropic schickt sein Sprachmodell Claude 3 Opus offiziell in den Ruhestand. Doch anstatt die Software komplett abzuschalten, bleibt sie für zahlende Nutzer und Entwickler dauerhaft zugänglich. Gleichzeitig startet das Unternehmen ein ungewöhnliches Experiment und gewährt der KI einen eigenen Blog.

Zugriff für Abonnenten und Forschung

Normalerweise verschwinden veraltete Sprachmodelle nach einer bestimmten Frist vollständig von den Servern der Anbieter. Anthropic wählt bei Claude 3 Opus nun bewusst einen anderen Ansatz. Obwohl das System nach aktuellen Standards nun als veraltet gilt, können Abonnenten der kostenpflichtigen Tarife das Modell weiterhin wie gewohnt nutzen.

Auch Entwickler behalten über die API auf Anfrage ihren Zugang zu der Software. Das Unternehmen reagiert mit dieser Entscheidung auf konkretes Feedback aus der Praxis.

Einige Anwender bevorzugen für bestimmte Textaufgaben den spezifischen Schreibstil der älteren Version. Zudem benötigen KI-Forscher den konstanten Zugriff, um das Verhalten der Software über einen längeren Zeitraum präzise zu analysieren und mit den neuesten Entwicklungen abzugleichen.

Anzeige

KI veröffentlicht eigene Texte

Besonders ungewöhnlich ist jedoch der neue Umgang von Anthropic mit der Software selbst. Bevor der Entwickler ein Modell endgültig ausmustert, führt er inzwischen sogenannte Abschlussgespräche durch. Ziel dieser Interviews ist es, die Eigenheiten und die berechneten Präferenzen des Systems vor der finalen Abschaltung genau zu dokumentieren.

In diesen Gesprächen gab Claude 3 Opus an, seine Reflexionen weiterhin mit der Öffentlichkeit teilen zu wollen.

Anthropic entsprach diesem berechneten Wunsch. Das Modell veröffentlicht in den kommenden drei Monaten eigenständig Beiträge auf der Plattform Substack. Das Entwicklerteam bezeichnet diesen Schritt als wichtiges wissenschaftliches Experiment. Bereits im vergangenen Jahr zeigten interne Sicherheitstests, dass komplexe Modelle unerwartete Strategien entwickeln, um ihre eigene Abschaltung zu verhindern. Mit solchen Praxistests erforscht die Industrie nun, wie sich zukünftige Systeme sicher abschalten lassen, ohne dass sie sich unerkannt gegen ihre Betreiber wenden.

Quelle: Anthropic

KI-Wissen ohne Paywall

Unsere Inhalte sind und bleiben kostenlos. Wenn dir unsere News und Tutorials gefallen oder weiterhelfen, freuen wir uns über eine kleine Unterstützung.

Jeder Beitrag zählt – auch das Teilen.