ein qai logo und apple logo

Apple kauft Q.ai: Siri lernt Lippenlesen für zwei Milliarden

Der iPhone-Konzern investiert massiv in israelische KI-Technologie, um Sprachsteuerung lautlos und diskret in der Öffentlichkeit nutzbar zu machen.

Andreas Becker Nano Banana
ein qai logo und apple logo

Apple sichert sich das israelische KI-Startup Q.ai für eine Summe von knapp zwei Milliarden Dollar. Die Technologie verspricht eine Weiterentwicklung für Siri, da sie Sprache allein durch die Analyse von Gesichtsmuskeln erkennt.

Der zweitgrößte Deal seit Beats

Der iPhone-Konzern zahlt Berichten zufolge rund zwei Milliarden Dollar für das Unternehmen aus Tel Aviv. Das markiert die zweitgrößte Übernahme in der Geschichte von Apple, gleich hinter dem Kauf von Beats Electronics im Jahr 2014. Eine solche Summe ist untypisch für Cupertino, wo man normalerweise eher kleine Teams integriert, um spezifische technische Lücken zu schließen.

Diese massive Investition unterstreicht den Druck, unter dem Apple im aktuellen KI-Wettlauf steht. Während Konkurrenten primär auf Cloud-basierte Sprachmodelle setzen, investiert Apple hier in eine Technologie, die Hardware und Software eng verzahnt. Der Deal ist zudem die zweite Zusammenarbeit mit Gründer Aviad Maizels, dessen früheres Unternehmen PrimeSense die technologische Basis für FaceID legte.

Anzeige

Sprechen ohne Töne

Q.ai spezialisiert sich auf sogenannte "Silent Speech"-Technologie oder "Subvokale Erkennung". Algorithmen werten dabei mikroskopische Bewegungen der Gesichtsmuskulatur und elektrische Signale der Haut aus. Das System erkennt Worte, noch bevor ein hörbarer Laut den Mund verlässt oder wenn der Nutzer lediglich die Lippen bewegt.

Die technische Umsetzung erfordert hochsensible Sensoren, die diese feinen motorischen Signale erfassen können. Bisherige Demos von Q.ai zeigten beeindruckende Ergebnisse bei der Interpretation von Befehlen, die Nutzer lautlos formulierten. Das System lernt dabei individuell, wie sich die Physiognomie des Nutzers bei bestimmten Wortlauten verhält.

Privatsphäre und Präzision

Diese Technik löst eines der größten Probleme aktueller Sprachassistenten: die Nutzung in der Öffentlichkeit. Sensible Daten wie Passwörter oder private Nachrichten lassen sich im vollen Zug oder Großraumbüro diktieren, ohne dass Umstehende mithören können. Die Interaktion mit der Technik wird diskret und gesellschaftsfähig.

Gleichzeitig verbessert der Ansatz die Erkennungsrate in lauten Umgebungen drastisch. Da die Audio-Spur nicht mehr der einzige Indikator ist, spielen Hintergrundgeräusche für die Erfassung des Befehls kaum noch eine Rolle. Das System kombiniert visuelle oder sensorische Daten mit dem akustischen Signal, um Missverständnisse zu minimieren.

Integration in AirPods und Vision Pro

Branchenbeobachter gehen davon aus, dass die Technologie mittelfristig in Wearables einziehen wird. Zukünftige Generationen der AirPods oder der Vision Pro könnten mit entsprechenden Sensoren ausgestattet werden, die Kontakt zur Haut haben oder optisch den Kieferbereich erfassen. Dies würde eine freihändige Steuerung ermöglichen, die weder Berührung noch lautes Sprechen erfordert.

KI-Wissen ohne Paywall

Unsere Inhalte sind und bleiben kostenlos. Wenn dir unsere News und Tutorials gefallen oder weiterhelfen, freuen wir uns über eine kleine Unterstützung.

Jeder Beitrag zählt – auch das Teilen.