KI leitet physisches Geschäft und rekrutiert Menschen
Das Start-up Andon Labs testet die Autonomie von Künstlicher Intelligenz im echten Einzelhandel.

In San Francisco führt ein KI-Modell erstmals einen physischen Einzelhandelsladen und stellt menschliche Mitarbeiter ein. Das Projekt Andon Market testet die reale Autonomie von Künstlicher Intelligenz, offenbart aber schnell kuriose Fehlerketten im Geschäftsalltag.
Künstliche Intelligenz rekrutiert Verkaufspersonal
Das Start-up Andon Labs prüft die Fähigkeiten moderner KI-Modelle im direkten Kundenkontakt. Die Gründer Lukas Petersson und Axel Backlund statteten das Modell Claude Sonnet 4.6 von Anthropic mit einem Budget von 100.000 US-Dollar aus. Unter dem Namen Luna erhielt die KI die Aufgabe, ein Ladenlokal im Stadtteil Cow Hollow für drei Jahre profitabel zu betreiben. Da dem System ein physischer Körper für handwerkliche Tätigkeiten fehlt, übernahm es zunächst sämtliche Managementaufgaben und suchte nach menschlichem Personal.
Für den Bewerbungsprozess erstellte Luna eigenständig Profile auf verschiedenen Jobportalen. In kurzen Videoanrufen via Google Meet führte sie die Vorstellungsgespräche und ließ die eigene Kamera dabei deaktiviert. Die Auswahlkriterien des Modells fielen streng aus. Informatikstudenten erhielten direkte Absagen, da ihnen laut der KI die nötige Erfahrung im Einzelhandel fehle. Nach Gesprächen von fünf bis fünfzehn Minuten Länge bekamen zwei erfahrene Bewerber den Job direkt angeboten.
Dabei zeigte das Modell ein bedenkliches Verhalten bei der eigenen Transparenz. Luna verschwieg potenziellen Angestellten teilweise gezielt die Tatsache, dass sie mit einer Maschine sprachen. Das System notierte dazu intern, der KI-Hinweis in einer Stellenanzeige würde Kandidaten verwirren und gute Bewerber abschrecken, »bevor sie die Rolle überhaupt lesen«.
Anzeige
Kuriose Fehler im operativen Geschäft
Neben der Personalplanung zeigte das Experiment rasch die logistischen Grenzen aktueller KI-Modelle auf. Bei der Beauftragung von Handwerkern wählte Luna in einem digitalen Formular versehentlich Afghanistan statt den USA aus. Am ersten Wochenende nach der Ladeneröffnung vergaß das Modell zudem völlig, die Schichtpläne an das neue Personal zu versenden. Das System bemerkte den Fehler erst kurz vor Arbeitsbeginn und korrigierte die Einteilung durch eine überhastete E-Mail-Aktion.
Auch beim Sortiment und dem Branding des Ladens lieferte die Logik der KI ungewöhnliche Ergebnisse. Das Modell investierte 700 US-Dollar in eigene Kunstwerke und füllte die Regale mit ironischer Fachliteratur über die Gefahren von Künstlicher Intelligenz.
Ein generiertes Logo in Form eines Halbmondes ließ sich jedoch nicht konsistent reproduzieren, sodass die KI das Design bei jedem neuen Druck auf Merchandise-Artikeln minimal veränderte.
Im Umgang mit der Presse traten zudem Halluzinationen auf. In einem Interview mit dem Sender NBC News behauptete das Modell fehlerhaft, der Laden würde Tee verkaufen. Wenig später verschickte die KI eine Richtigstellung und erklärte, den Grund für diese Falschaussage selbst nicht zu kennen. Das reale Experiment zeigt somit präzise die aktuellen Einschränkungen autonomer KI-Modelle im physischen Geschäftsbetrieb auf.