Ein LLM funktioniert wie ein Gehirn

Wir Menschen denken wie ChatGPT

Forscher finden mathematischen Beweis, dass unser Gehirn Sprache exakt wie künstliche Algorithmen berechnet.

Andreas Becker Nano Banana
Ein LLM funktioniert wie ein Gehirn

Neue Forschungen der Hebräischen Universität Jerusalem und der Universität Princeton enthüllen fundamentale Parallelen zwischen menschlicher Kognition und Large Language Models. Die Studie belegt, dass unser Gehirn komplexe Sprache in einer hierarchischen Schichtstruktur verarbeitet, die modernen neuronalen Netzen gleicht.

Verblüffende Architektur-Parallelen

Lange galt die Funktionsweise von Künstlicher Intelligenz, insbesondere von Large Language Models (LLMs) wie GPT oder Llama, als "Black Box", die wenig mit biologischer Intelligenz gemein hat. Eine heute in Nature Communications veröffentlichte Studie widerlegt diese Annahme deutlich. Ein Forschungsteam unter der Leitung von Dr. Ariel Goldstein wies nach, dass die Verarbeitung von natürlicher Sprache im menschlichen Gehirn einer strengen Hierarchie folgt. Diese Hierarchie spiegelt die Architektur von Transformer-Modellen nahezu eins zu eins wider. Während die KI Informationen Schicht für Schicht abstrahiert, vollzieht das menschliche Gehirn denselben Prozess über die Zeitachse.

Anzeige

Der Faktor Zeit und Tiefe

Der Kern der Entdeckung liegt in der sogenannten "zeitlichen Struktur" (Temporal Structure). Wenn wir einen Satz hören, verarbeitet der auditive Kortex zunächst einfache akustische Merkmale. Dies entspricht den ersten, flachen Schichten eines neuronalen Netzes. Erst im weiteren Verlauf integriert das Gehirn Kontext, Grammatik und langfristige Bedeutung. Die Forscher fanden heraus, dass die Aktivität in tieferen Hirnregionen, speziell im Broca-Areal, exakt mit den Berechnungen in den tiefen Schichten der KI korreliert. Je komplexer der Kontext, desto später feuern die Neuronen – analog zur Tiefe der KI-Verarbeitung. Das Gehirn baut Bedeutung also nicht schlagartig auf, sondern konstruiert sie in sequenziellen Stufen.

Präzision durch Elektroden am offenen Gehirn

Um diese feinen zeitlichen Unterschiede zu messen, reichten herkömmliche fMRT-Scans nicht aus, da diese zu träge reagieren. Das Team nutzte stattdessen die Elektrocorticographie (ECoG). Dabei werden Patienten aus medizinischen Gründen (meist Epilepsie-Diagnostik) Elektroden direkt auf die Hirnrinde implantiert. Die Probanden hörten eine 30-minütige Erzählung, während die Sensoren die neuronale Antwort millisekundengenau aufzeichneten. Dieser Datensatz ermöglichte den direkten Vergleich zwischen biologischen Signalen und den Vektoren der Sprachmodelle.

KI als Modell für den Menschen

Die Implikationen dieser Ergebnisse reichen weit über die Informatik hinaus. Wenn LLMs tatsächlich ähnliche Prinzipien nutzen wie unser Gehirn, validiert dies KI-Modelle als ernstzunehmendes Werkzeug für die Hirnforschung. Wir können nun vorhersagen, wie das Gehirn auf bestimmte sprachliche Reize reagiert, indem wir die KI als Simulator nutzen. Dies öffnet mittelfristig Türen für völlig neue Ansätze in der Medizin, etwa bei der Behandlung von Aphasie oder der Entwicklung leistungsfähigerer Brain-Computer-Interfaces (BCI).

KI-Wissen ohne Paywall

Unsere Inhalte sind und bleiben kostenlos. Wenn dir unsere News und Tutorials gefallen oder weiterhelfen, freuen wir uns über eine kleine Unterstützung.

Jeder Beitrag zählt – auch das Teilen.