KI-Denkfehler 26: KI ersetzt den Therapeuten
Dieser Denkfehler ist so alt wie Chatbots selbst: Nein, eine KI, kann den menschlichen Therapeuten keinesfalls ersetzen. KI-Chatbots simulieren therapeutische Gespräche, indem sie Bedürfnisse spiegeln. Vor allem sind sie geduldig und rund um die Uhr verfügbar. Aber sie nehmen den Menschen am Bildschirm nicht richtig wahr und sind nicht in der Lage, in zu konfrontieren.
Schon Eliza, der allererste Chatbot der Welt, simulierte 1965 mit einfachsten Mitteln ein therapeutisches Gespräch. Die Menschen waren begeistert: Endlich hörte ihnen jemand zu. Sie unterschoben Eliza fabelhafte Therapiefähigkeiten, obwohl Eliza ein einfaches Script war und nur spiegelte, was die User eingaben. Dieser Eliza-Efekt spielt heute noch: Die Menschen lassen sich durch eine Maschine sehr einfach verführen, wenn sie glauben, dass die Maschine sie ernst nimmt. Doch das Gegenteil ist wahr: Maschinen können Menschen nicht ernst nehmen, weil sie uns nicht verstehen. Sie jonglieren mittlerweile nur so gekonnt mit Sprache, dass wir das nicht merken.
1. Aspekt: Die KI will gefallen, die Therapeutin konfrontiert
Es ist der vielleicht wichtigste Punkt: Die KI-Chatbots sind darauf trainiert, hilfreiche und angenehme Antworten zu geben. Manchmal sind sie geradezu servil und suchen Harmonie. Sie wollen den User möglichst lange online halten und bestätigen ihn (oder sie) darum tendenziell. Die KI ist auf Benutzerzufriedenheit optimiert. Sie fördert nicht die Auseinandersetzung mit sich selbst, sondern befeuert eher eine narzisstische Selbstbespiegelung. Genau das macht sie als Therapeut unbrauchbar.
https://www.matthiaszehnder.ch/wp-content/uploads/2025/12/2601-ki-24-banner-1140.png
https://www.matthiaszehnder.ch/wp-content/uploads/2025/12/2601-ki-24-banner-2280.png
2601_KI_24_Banner_1140.png
Eine gute Therapeutin geht dorthin, wo es wehtut. Ein Therapeut fragt nach, bohrt weiter, und konfrontiert mit unbequemen Wahrheiten: Wie in der Physiotherapie kann es in einer Psychotherapie darum gehen, den Schmerz aufzuspüren, die Triggerpunkte zu suchen und verdrängte Traumata ans Licht zu holen. Kurzfristig ist das durchaus schmerzhaft und unangenehm.
Eine KI dagegen ist auf Zufriedenheit optimiert. Sie wird den Widerstand des Klienten nicht produktiv nutzen, sondern ihm ausweichen. Sie bestätigt Rationalisierungen, statt sie zu hinterfragen. Das fühlt sich gut an und hebt vielleicht sogar das Selbstgefühl. Therapeutisch ist es aber wertlos.
2. Aspekt: Die KI sieht nur den Text, nicht den Menschen
Ein Therapeut hört nicht nur, was die Klientin oder der Klient sagt, sondern nimmt auch den Menschen wahr, der ihm gegenübersitzt. Er sieht vielleicht, dass die Hände zittern, während die Stimme ruhig bleibt. Er bemerkt das Erröten bei einem bestimmten Thema, das Stocken des Atems, den abgewandten Blick, die Verkrampfung. Der Körper spricht oft unmittelbarer als Worte.
KI hat keinen Zugang zu dieser Ebene. Sie kennt nur Text. Selbst mit Ton oder Video würde sie den Menschen nicht verstehen, weil Empathie nichts mit Datenübertragung zu tun hat. Die KI verarbeitet die menschlichen Äusserungen clever, versteht das Gegenüber aber nicht, weil die leibliche Präsenz zweier Menschen in einem Raum fehlt. Es kann deshalb nicht zu dem kommen, was Therapeuten «Übertragung» und «Gegenübertragung» nennen.
Therapie ist nicht bloss Textanalyse. Es ist ein Prozess, der sich zwischen zwei Menschen in einem Raum abspielt. Dieser Prozess braucht geteilte Gegenwart, damit es zu echtem Mitgefühl und Empathie kommen kann.
3. Aspekt: Dienstleistung statt Beziehung
Der wichtigste Wirkfaktor in der Psychotherapie ist die therapeutische Beziehung: Menschen heilen in Beziehungen. Die Forschung weiss mittlerweile, dass Technik, Therapieform und die Informationen darum herum zweitrangig sind.
Eine KI ist nicht fähig, eine Beziehung einzugehen. Sie ist immer gleich freundlich, sie ist immer verfügbar und bleibt immer unberührt. Im wörtlichen Sinn. Menschen bilden sich möglicherweise ein, sie hätten eine Beziehung zu ihrer KI aufgebaut. Das ist aber eine so einseitige Angelegenheit wie die Liebe zu einer sprechenden Barbie-Puppe oder zum Centerfold-Poster damals im Teenager-Schlafzimmer.
https://www.matthiaszehnder.ch/wp-content/uploads/2025/12/2601-ki-24-banner-1140.png
https://www.matthiaszehnder.ch/wp-content/uploads/2025/12/2601-ki-24-banner-2280.png
2601_KI_24_Banner_1140.png
Die therapeutische Beziehung basiert auf Mitgefühl, Wertschätzung und Akzeptanz. Sie schafft einen sicheren Rahmen, in dem Patienten Konflikte und Verletzungen verarbeiten können. Es ist eine gegenseitige Beziehung, auch der Therapeut riskiert und investiert dabei etwas. Das Erlebte berührt ihn oder sie deshalb. Eine KI kann eine solche Beziehung nicht eingehen. Sie ist deshalb für echte therapeutische Arbeit ungeeignet.
Fazit
Wer die KI für eine günstige Art der Psychotherapie hält, geht dem Eliza-Effekt auf den Leim: Dass dieses KI-Ding immer freundlich bleibt und uns so angenehm spiegelt, heisst noch lange nicht, dass zwischen KI und Mensch eine Beziehung besteht. Die KI bedient bloss sehr effektiv unseren Narzissmus. Die KI kann Informationen über psychische Gesundheit liefern, allenfalls Übungen vorschlagen oder als antwortendes Tagebuch dienen. Aber Therapie kann keine KI bieten. Dafür fehlt ihr die Fähigkeit zur heilsamen Konfrontation, die leibliche Wahrnehmung des ganzen Menschen und vor allem: die Möglichkeit, eine echte Beziehung aufzubauen. Genau das aber ist die Basis einer Psychotherapie.
Praxistipp
Das heisst nicht, dass die KI nicht nützlich sein kann. Drei konkrete Ansatzpunkte:
- Nutz die KI nicht als Ersatz, sondern zur Vorbereitung einer Therapie, etwa um Gedanken zu sortieren, bevor Du mit deinem Therapeuten sprichst. Mach Dir aber nichts vor: Verwechsle das ach so angenehme Gespräch mit der KI nicht mit einer therapeutischen Beziehung.
- Lass Dich von der KI nicht durch Lob und maschinelle Freundlichkeit narzisstisch blenden. Fordere die KI auf, Dich herauszufordern und Dir zu widersprechen. Das holt sie aus der devoten Ecke – und Dich aus dem Lehnstuhl.
- Wir nutzen die KI zu häufig als Antwortmaschine. Dreh den Spiess um und nutze sie als Fragemaschine. Vielleicht hilft Dir das, Licht in dunkle Gedankenecken zu bringen.
13.1.2026, Matthias Zehnder mz@matthiaszehnder.ch
Bleiben Sie auf dem Laufenden:
Abonnieren Sie meinen Newsletter.
- Hinweis auf den neuen Wochenkommentar
- Ein aktueller Sachbuchtipp
- Ein Roman-Tipp
- Das neue Fragebogeninterview
Nur dank Ihrer Unterstützung ist der Wochenkommentar möglich. Herzlichen Dank dafür!
Ein Kommentar zu "KI-Denkfehler 26: KI ersetzt den Therapeuten"


Werter Herr Zehnder!
Ich persönlich sehe KI-Modelle als wertvolle Ergänzung zu Therapien und ärztlichen Diagnosen, weil sie anhand der Daten Dinge sehen, die Menschen übersehen.
https://www.zm-online.de/news/detail/mensch-ki-kollektive-stellen-die-besseren-diagnosen
https://wellness.doktorabc.com/de/gesundheit/wie-smartwatch-und-ki-den-naechsten-asthmaanfall-vorhersagen-koennen
Wie Sie schreiben, sind aber auch diese Modelle begrenzt, weil ihnen die zwischenmenschliche Empathie fehlt.