Es gibt eine Frage, die mich seit einiger Zeit beschäftigt. Nicht als abstrakte Zukunftsvision — sondern als sehr konkrete Gegenwart. Die Frage lautet: Was, wenn eine Maschine weiß, wie es Ihnen geht — bevor Sie es selbst wissen?

Das klingt nach Science-Fiction. Es ist Wissenschaft.

Künstliche Intelligenz wird heute zunehmend dazu eingesetzt, innere Zustände zu erkennen. Nicht Worte. Nicht Absichten, die wir formulieren. Sondern das, was darunter liegt: Stress. Müdigkeit. Angst. Kognitive Erschöpfung. Depressive Tendenzen. Emotionale Tonlagen. Und das aus Daten, die wir ohnehin produzieren — Herzfrequenzvariabilität, Stimmklang, Mimik, Schlafmuster, Bewegungsprofile.

Die Kombination aus Wearables, Verhaltensanalyse und KI macht das möglich. Und sie macht es erschreckend präzise.

Studien zeigen, dass Stress-Level aus physiologischen Signalen mit hoher Genauigkeit vorhergesagt werden können — noch bevor die betroffene Person selbst das Gefühl als Stress benennen würde. KI-Systeme erkennen depressive Episoden aus Sprachmustern, aus Tippgeschwindigkeit, aus der Art, wie jemand sein Smartphone hält. Andere Systeme analysieren Mikro-Expressionen im Gesicht — jene flüchtigen Muskelzuckungen, die in Millisekunden ablaufen und die wir bewusst nicht kontrollieren können. Wieder andere hören in die Stimme hinein: Tonhöhe, Sprechrhythmus, Pausen — und schließen daraus auf emotionale Zustände, die der Sprecher vielleicht selbst nicht wahrnimmt (Schuller BW et al., IEEE Trans Affect Comput 2021; doi:10.1109/TAFFC.2021.3059895).

Das ist kein Randphänomen. Das ist eine neue Klasse von Technologie — und sie ist bereits im Einsatz. In Callcentern, die Mitarbeiterstress in Echtzeit monitoren. In Fahrassistenzsystemen, die Müdigkeit erkennen. In psychiatrischen Frühwarnsystemen, die Rückfälle antizipieren sollen. In Wearables, die Ihnen sagen, wann Sie schlafen gehen sollten — nicht weil Sie müde wirken, sondern weil Ihre HRV es verrät.

Und hier beginnt die eigentliche Frage.

Denn wenn eine Maschine meinen Stresszustand kennt, bevor ich ihn spüre — wem gehört dieses Wissen? Wer hat Zugang dazu? Und was passiert damit?

Die Antwort ist nicht beruhigend. Daten über innere Zustände sind die intimsten Daten, die es gibt. Intimer als Suchanfragen. Intimer als Standortdaten. Sie beschreiben nicht, was ich tue — sie beschreiben, was ich bin. In diesem Moment. In diesem Zustand. Mit dieser Verletzlichkeit.

Gleichzeitig wäre es falsch, nur die Risiken zu sehen. Die medizinischen Möglichkeiten sind real. KI-gestützte Früherkennung von Depressionen, Burnout, kognitiver Überlastung — das sind keine Spielereien. Das sind potenzielle Lebensretter. Systeme, die Warnsignale erkennen, lange bevor ein Mensch in der Lage ist, Hilfe zu suchen. Gerade in einer Gesellschaft, in der psychische Erkrankungen massiv unterdiagnostiziert sind, könnte das einen echten Unterschied machen (Torous J et al., World Psychiatry 2021; doi:10.1002/wps.20838).

Aber — und das ist entscheidend — der Unterschied zwischen einem Werkzeug und einer Waffe liegt nicht in der Technologie. Er liegt in der Frage, wer sie kontrolliert.

Ein KI-System, das mir sagt: „Dein Stresslevel ist heute erhöht — vielleicht weniger Koffein, mehr Bewegung" — das ist ein Spiegel. Ein Werkzeug der Selbstwahrnehmung. Dasselbe System in den Händen eines Arbeitgebers, einer Versicherung, eines Staates — das ist etwas fundamental anderes.

Und dann ist da noch eine tiefere Frage. Eine, die mich wirklich beschäftigt.

Wenn KI lernt, meine inneren Zustände zu modellieren — modelliert sie sie dann nur? Oder beginnt sie, sie zu formen? Denn Systeme, die unsere emotionalen Zustände kennen, können auch auf sie einwirken. Inhalte, Töne, Zeitpunkte — alles kann auf den erkannten Zustand abgestimmt werden. Das ist keine Paranoia. Das ist das Geschäftsmodell großer Plattformen — nur jetzt mit physiologischer Präzision.

Selbstwahrnehmung war immer ein innerer Prozess. Langsam, unvollständig, manchmal schmerzhaft — aber zutiefst eigen. Was passiert mit dieser Eigenheit, wenn eine Maschine schneller, präziser und umfassender weiß, wie es uns geht, als wir selbst?

Das ist keine Frage für übermorgen. Das ist eine Frage für heute.

Und die Antwort beginnt damit, dass wir sie überhaupt stellen.



Referenzen:

Schuller BW et al. (2021). Speech emotion recognition: Two decades in a nutshell, benchmarks, and ongoing trends. IEEE Transactions on Affective Computing. doi:10.1109/TAFFC.2021.3059895

Torous J et al. (2021). Digital mental health and COVID-19: Using technology today to accelerate the curve on access and quality tomorrow. World Psychiatry. doi:10.1002/wps.20838

Gjoreski M et al. (2017). Monitoring stress with a wrist device using context. Journal of Biomedical Informatics. doi:10.1016/j.jbi.2017.09.012