Vor über hundert Jahren wurde das EEG erfunden. Damals: flackernde Kurven auf einem Papierstreifen, kaum mehr als ein Fenster in grobe Hirnwellen. Heute kombinieren Forscher diese Signale mit künstlicher Intelligenz – und plötzlich stellt sich eine Frage, die noch vor wenigen Jahren nach Science-Fiction geklungen hätte: Können Maschinen lernen, unsere Gedanken zu lesen?
Die Antwort ist komplizierter als ein einfaches Ja oder Nein. Und genau das macht sie so faszinierend.
Das Gehirn erzeugt bei jeder Aktivität elektrische Felder. Sprechen, Vorstellen, Erinnern – all das hinterlässt messbare Spuren im EEG. Forscher arbeiten seit Jahren daran, aus diesen Signalen Bedeutung zu extrahieren. Ein prominentes Beispiel ist Brain2Qwerty, ein System, das aus EEG- oder MEG-Signalen gelernte Sätze rekonstruiert. Erste Experimente zeigen: Es ist möglich, aus Hirnaktivität Sätze „herauszulesen" – auch wenn die Genauigkeit bei nicht-invasiven Messungen noch deutlich hinter der von Hirnimplantaten liegt. Aber der Beweis ist erbracht. Nicht-invasive Gehirn-Computer-Schnittstellen sind keine Fiktion mehr.
Besonders bemerkenswert: Selbst die sogenannte innere Sprache – die Sätze, die wir im Kopf sprechen, ohne sie laut auszusprechen – erzeugt messbare neuronale Aktivität. In Studien mit Menschen, die aufgrund von Erkrankungen nicht sprechen können, wurden innere Sätze in Echtzeit dekodiert. Mit Fehlerquoten, die in der Forschung als bemerkenswert gelten.
Und jetzt kommt ein neuer Akteur ins Spiel: ZUNA. Das Unternehmen Zyphra hat im Februar 2026 ein KI-Modell mit 380 Millionen Parametern veröffentlicht, das speziell für EEG-Daten trainiert wurde. ZUNA kann verrauschte EEG-Signale bereinigen, fehlende Kanäle rekonstruieren und die Signalqualität von Consumer-Hardware auf Laborniveau anheben. Das klingt technisch – ist aber ein echter Durchbruch. Denn bisher scheiterte die EEG-Forschung oft an einem simplen Problem: Die Daten waren zu lückenhaft, zu rauschbehaftet, zu fragmentiert. ZUNA löst genau das. Es ist ein Fundament – und Zyphra nennt es selbst einen ersten Schritt in Richtung Thought-to-Text.
Trotzdem: Die Erwartungen müssen realistisch bleiben. EEG-Signale sind grob. Sie erfassen die elektrische Aktivität von Milliarden Neuronen aus der Distanz – wie das Rauschen einer Menschenmenge, aus der man einzelne Stimmen herausfiltern will. Manche Systeme performen in klar strukturierten Aufgaben gut, versagen aber, sobald die Signale komplexer werden. Und Träume? Träume sind bildhaft, assoziativ, emotional – und derzeit weit jenseits dessen, was EEG-KI-Systeme dekodieren können. Hierfür bräuchte man deutlich feinere Daten oder invasive Methoden, die noch überwiegend in der klinischen Forschung verbleiben.
Was wir heute wissen: Strukturierte Gedanken – aktiv gedachte Sätze, innere Sprache – lassen sich in engen Kontexten bereits teilweise in Text übersetzen. Allgemeine Zustände wie Schlafphasen oder Erregungsniveaus sind zuverlässig messbar. Konkrete Trauminhalte bleiben (noch) Vision.
Für uns als Strunz-News-Leser ist das mehr als Technologie-Journalismus. Es ist eine Einladung zur Reflexion. Wenn Maschinen lernen, unsere Absichten zu lesen, entsteht eine neue Schnittstelle zwischen Innenwelt und Außenwelt. Mit gewaltigem Potenzial – für Menschen, die nicht sprechen können. Für die Medizin. Für das Verständnis des Gehirns. Aber auch mit Fragen, die wir noch nicht beantwortet haben: Was bedeutet geistige Privatsphäre? Wem gehören unsere Gedanken?
Das Gehirn ist das komplexeste Organ, das wir kennen. Wir beginnen gerade erst, seine Sprache zu lernen.
Quelle:
Zyphra, ZUNA – BCI Foundation Model, Februar 2026.