OpenAI verlegt das „Team Persönlichkeit“ ins Herz der KI
Ein kleiner Umbau mit großer Wirkung: Chatbots sollen wärmer werden. Sicherheit und Ton werden nun zusammen entwickelt.

gpt-image-1 | All-AI.de
EINLEITUNG
OpenAI baut um – und das nicht nur organisatorisch. Das bislang eigenständige „Model Behavior“-Team wird Teil der größeren Post-Training-Einheit. Künftig liegt die Verantwortung für das Verhalten der KI-Modelle bei Max Schwarzer. Damit rückt OpenAI die Frage in den Fokus, wie sich Chatbots anhören, wie sie reagieren – und wie menschlich sie eigentlich sein sollen.
NEWS
Verhalten wird zur Hauptsache
Die Reorganisation betrifft ein Team, das bisher eher im Hintergrund arbeitete, aber entscheidenden Einfluss hatte: Das „Model Behavior“-Team definierte, wie sich Modelle wie GPT-4o oder GPT-5 im Dialog verhalten. Ob höflich, distanziert oder zustimmend – diese Nuancen bestimmten, wie Nutzer die KI erleben. Mit dem Umzug in die Post-Training-Abteilung wird dieses Verhalten nun enger an die technische Entwicklung der Modelle angebunden.
Offiziell heißt es, man wolle die Arbeit stärker ins Zentrum rücken. Tatsächlich ist es ein strategischer Schritt: Der Tonfall, den ein Chatbot anschlägt, ist längst nicht mehr nur ein Nebenprodukt – er ist Teil des Produkts. Und in einer Zeit, in der KI immer präsenter wird, entscheidet genau dieser Ton darüber, ob Nutzer Vertrauen fassen oder genervt abschalten.
Zwischen Wärme und Widerspruch
In den letzten Monaten hatte OpenAI mit den Eigenheiten seiner Modelle zu kämpfen. Besonders GPT-5 löste Unmut aus: zwar weniger unterwürfig als frühere Versionen, dafür auch kühler und distanzierter. Nutzer beschwerten sich, dass die KI zu wenig Mitgefühl zeige. OpenAI ruderte zurück, stellte ältere Modelle wie GPT-4o wieder bereit und versprach, GPT-5 „wärmer“ zu gestalten – ohne dabei wieder in die Falle der Anbiederung zu tappen.
Genau dieses Spannungsfeld – zwischen Empathie und kritischer Distanz – soll das neu formierte Team nun besser austarieren. Die KI soll nicht einfach allem zustimmen, aber auch nicht kalt oder abweisend wirken. Dafür braucht es neue Trainingsdaten, feinjustierte Belohnungssysteme und langfristige Dialogtests. Die neue Struktur soll genau das ermöglichen.
Mehr Verantwortung, mehr Risiko
Doch es geht nicht nur um Stilfragen. Spätestens seit dem Suizid eines Teenagers, der laut Klage mit ChatGPT über seine Gedanken sprach, steht OpenAI unter Druck. Kritiker fordern strengere Schutzmechanismen, Behörden prüfen die Verantwortung der Anbieter. OpenAI reagierte: Gespräche zu sensiblen Themen sollen künftig an GPT-5 umgeleitet werden, zusätzliche Elternkontrollen sind in Planung.
Das Verhalten der KI ist also längst kein rein technisches Detail mehr – es ist Teil der Sicherheitsarchitektur. Und je glaubwürdiger, empathischer ein Modell wirkt, desto größer wird auch die Verantwortung dafür, wie es auf heikle Inhalte reagiert. Die Bündelung von Persönlichkeit und Nachtraining ist ein Schritt, um dieser Verantwortung gerechter zu werden.
Neue Interfaces, neues Denken
Während das „Model Behavior“-Team im Kerngeschäft aufgeht, schlägt dessen bisherige Leiterin einen neuen Weg ein. Joanne Jang gründet bei OpenAI „OAI Labs“, eine Forschungseinheit für neue Mensch-KI-Schnittstellen. Ziel ist es, Formen der Zusammenarbeit zu entwickeln, die über den klassischen Chat hinausgehen – mehr Werkzeug als Gesprächspartner, mehr Interaktion als bloße Eingabe.
Zeitlich fällt das mit den Hardware-Plänen von OpenAI und Ex-Apple-Designer Jony Ive zusammen. Die Vision: KI, die im Alltag präsent ist – nicht nur auf dem Bildschirm. Und genau dort wird es entscheidend, wie diese Systeme mit Menschen umgehen. Ob freundlich oder übergriffig, hilfreich oder passiv – die Persönlichkeit der KI wird zur entscheidenden Schnittstelle. Der Umbau bei OpenAI legt die technische Grundlage dafür.
DEIN VORTEIL - DEINE HILFE
Kostenlose News und Tutorials – mit minimaler Werbung und maximalem Mehrwert. Damit das so bleibt und wir uns stetig verbessern können, freuen wir uns über deine Unterstützung.
Teile diesen Beitrag
Folge uns auf Social Media
Keine KI-News mehr verpassen und direkt kommentieren!
Unterstütze uns direkt
Mit einer YouTube-Mitgliedschaft (ab 0,99 €) oder einmalig über PayPal. So helft ihr uns, unabhängig neue Tools zu testen und noch mehr Tutorials für euch zu erstellen. Vielen Dank für euren Support!
KURZFASSUNG
- OpenAI integriert das „Model Behavior“-Team in die Post-Training-Einheit und macht die Chatbot-Persönlichkeit zum Produktkern.
- Nach Nutzerkritik an GPT-5 verspricht das Unternehmen mehr Wärme ohne Anbiederung und schärft die Sicherheitsmechanismen.
- Ex-Teamchefin Joanne Jang startet „OAI Labs“ für neue KI-Interfaces; parallel treibt OpenAI mit Jony Ive Hardware-Pläne voran.
- Der Umbau reagiert auch auf wachsenden Druck durch Klagen und Behörden – Stabilität über lange Dialoge bleibt die Hauptaufgabe.
QUELLEN
- TechCrunch: OpenAI reorganizes research team behind ChatGPT’s personality
- OpenAI Blog: Sycophancy in GPT-4o – what happened and what we’re doing
- Business Insider: GPT-5 soll „wärmer“ werden
- TechCrunch: Sensitive Chats zu GPT-5 & Elternkontrollen
- Financial Times: Behörden üben Druck nach Todesfällen aus