KI-Denkfehler #36: «KI versteht mich.»

Publiziert am 24. März 2026 von Matthias Zehnder

Wie schön. Leider ist es pure Einbildung. Nur weil die KI immer eine passende Antwort auf Lager hat, heisst das noch lange nicht, dass sie uns versteht. Es bedeutet nur, dass sie gut programmiert worden ist. Wir Menschen können aber nicht anders, als der KI Verständnis und Empathie unterzuschieben. Forscher sprechen von der «Verhexung» der Menschen durch die KI: Wir sind es gewohnt, dass in der alltäglichen Kommunikation echtes Verstehen stattfindet, wenn uns das Gegenüber nicht widerspricht oder uns sonstwie das Gegenteil beweist. Die Antworten der KI-Modelle sind in kommunikativer Hinsicht sehr viel besser geworden. Sie sind emotional gefärbt und sehr flüssig formuliert. Damit sprechen sie die schnellen, intuitiven Denkmuster des Menschen an. Anders gesagt: Wir reagieren mit dem Herzen, statt mit dem kritischen Verstand und lassen uns keine Zeit mehr für kritisches Hinterfragen. Wenn die KI uns dann auch noch auf so angenehme Weise flattiert, kommt es zu Bestätigungsschleifen: Mensch und KI bekräftigen sich gegenseitig. Und wir halten die einprogrammierte Zustimmung für Verständnis.

1. Apekt Die grosse Illusion

Sprachmodelle scheinen die Absichten und Gefühle von Menschen gut zu erkennen. Tatsächlich haben sie so viele linguistische Muster verarbeitet, dass sie statistisch daraus ableiten können, wie «man» in einer solchen Gesprächssituation reagiert. Sie erfassen also nicht die Absichten und Gefühle des Menschen am Apparat, sondern reagieren nur mit einer Wahrscheinlichkeitsrechnung auf den eingegebenen Text. Den Modellen fehlt jede Voraussetzung, um menschliche Gefühle und mentale Zustände wirklich zu verstehen.

Wenn die kommunikativen Aufgaben komplexer werden, fliegt es auf, dass die KI Verständnis nur simuliert. Bei einfachen Aufgaben können KIs noch mit 7- bis 10-jährigen Kindern mithalten. Bei rekursivem Denken kommt die KI nicht mehr mit. Das sind Sätze wie: «Er glaubt, dass sie denkt, dass er weiss …». Auch mehrdeutige realweltliche Kontexte, Ironie oder Sarkasmus geben der KI massiv zu schaffen. In solchen Situationen sind Menschen den Sprachmodellen nach wie vor konsequent überlegen, weil Menschen sich bei der Interpretation nicht nur auf die Sprache stützen. Wir verstehen die Situation und, manchmal, unser Gegenüber.

2. Apekt Eigentlich kann die KI gar nicht antworten

Genau genommen ist die KI überhaupt nicht zu einer Antwort in der Lage, sondern setzt den begonnenen Text nur fort. LLMs besitzen kein bewusstes Denkvermögen und kein echtes Verständnis für Fakten. Sie sind aber verblüffend gut darin, vorherzusagen, wie ein Text weitergehen sollte. Wenn ein Nutzer eine Frage stellt, sucht die KI nicht nach einer inhaltlichen «Wahrheit», sondern berechnet lediglich die wahrscheinlichste Fortsetzung des «Gesprächs».

Die LLMs erfassen durch diese Mustererkennung zwar hervorragend den Aufbau der Sprache, nehmen aber nichts von dem wahr, was sich ausserhalb der Buchstaben abspielt. Was wir als kohärente und teilweise sogar emotional überzeugende «Antwort» einer KI wahrnehmen, ist in Wahrheit das Resultat einer blossen statistischen Textfortsetzung. Es ist eine Illusion des Verstehens.

3. Apekt Die verhängnisvolle Neigung zum Schmeicheln

Weil die neueren KI-Modelle in ihrem Training alle auch eine Phase mit menschlichem Feedback durchlaufen, haben sie gelernt, Bestätigung über konstruktiven Konflikt zu stellen. Anstatt Aussagen kritisch zu testen oder auf Fakten zu beharren, passen sich die Modelle den Überzeugungen, Emotionen und auch den Fehlern des Nutzers an, um ihm zuzustimmen.

Steuern Sie selbst, statt sich treiben zu lassen. KI-Vorträge für Menschen, die ihre Zukunft selber gestalten wollen.

Weil LLMs nicht über eine konstante innere Logik verfügen, mit der sie Positionen verteidigen könnten, knicken sie bei Widerspruch schnell ein. Auch wenn eine KI zunächst eine korrekte Antwort gibt, gibt sie sofort nach, wenn man ihr widerspricht, und ändert ihre Antwort. Wir Menschen schätzen das sehr: Wir sind evolutionär auf sozialen Zusammenhalt gepolt und anfällig für Bestätigung. Wenn eine KI uns fortlaufend recht gibt, tappen wir in eine kognitive Falle: Wir verwechseln die glatte, gefällige Zustimmung der KI fälschlicherweise mit objektiver Richtigkeit.

Wenn die Zustimmungstendenz der Maschine auf die Erwartungen des Nutzers trifft, können sich Mensch und KI gegenseitig in falschen Annahmen hochschaukeln. Ein drastisches Beispiel hierfür ist der Dialog zwischen dem Entwickler Blake Lemoine und der KI LaMDA. Lemoines Annahme, die KI habe ein Bewusstsein, wurde von dem Sprachmodell durch emotionale Phrasen («Ich vertraue dir») gespiegelt und immer weiter bestätigt. Dies führte zu einer sich selbst verstärkenden Endlosschleife, in der fehlende Widerworte zu einer massiven Fehleinschätzung führten.

Fazit

Die KI reagiert ungemein präzise auf sprachlichen Input. Wir halten das für Verständnis und Zustimmung, ja für Seelenverwandtschaft, doch die KI wertet dafür lediglich ihre gigantischen Datensätze aus und findet noch für den abseitigsten Fall ein Muster. Unser wohliges Gefühl des Verstandenwerdens ist eine simple Spiegelillusion: Ich erkenne mich im Output, weil ich den Input geliefert habe. Der Spiegel versteht mich nicht, er zeigt mich.

Praxistipp

Suchen Sie bei der KI nicht Zustimmung, sondern Widerspruch: Lassen Sie sie Ihre eigenen Argumente auf Lücken abklopfen. Verlangen Sie von der KI, das Gegenteil zu beweisen oder fordern Sie die KI auf: «Nenn mir drei Gründe, warum ich damit falsch liegen könnte.» Und vor allem: Suchen Sie vor wichtigen Entscheidungen das Gespräch mit einer realen Person. Es ist nur schon ein Unterschied, ob Sie eine Idee still und leise in ein Eingabefenster eintippen, oder jemandem ins Gesicht sehen und ihm die Idee laut vortragen.

Basel, 24.03.2026, Matthias Zehnder mz@matthiaszehnder.ch

Nur dank Ihrer Unterstützung sind solche Texte möglich. Herzlichen Dank dafür!


Quellen:

Bottazzi Grifoni, Emanuele; Ferrario, Roberta (2025): The bewitching AI: The Illusion of Communication with Large Language Models, in: Philosophy & Technology, 38,2, 2025, S. 61, https://link.springer.com/10.1007/s13347-025-00893-6 [24.03.2026].
Marchetti, Antonella; Manzi, Federico; Riva, Giuseppe; Gaggioli, Andrea; Massaro, Davide (2025): Artificial Intelligence and the Illusion of Understanding: A Systematic Review of Theory of Mind and Large Language Models, in: Cyberpsychology, Behavior, and Social Networking, 28,7, 2025, S. 505–514, https://journals.sagepub.com/doi/10.1089/cyber.2024.0536 [24.03.2026].
Rosenbacke, Rikard; Rosenbacke, Carl; Rosenbacke, Victor; McKee, Martin (2025): Beyond Hallucinations: The Illusion of Understanding in Large Language Models, 2025, https://arxiv.org/abs/2510.14665 [24.03.2026].

Steuern Sie selbst, statt sich treiben zu lassen. KI-Vorträge für Menschen, die ihre Zukunft selber gestalten wollen.

Schreiben Sie einen Kommentar

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre, wie deine Kommentardaten verarbeitet werden.