Psychotherapie durch KI? – Die eingebildete Heilung

Publiziert am 19. September 2025 von Matthias Zehnder

Psychotherapie bedeutet wörtlich «Behandlung der Seele». Das wichtigste Mittel ist das psychotherapeutische Gespräch von Mensch zu Mensch. Heute muss man sich dafür nicht mehr auf ein Sofa legen, sondern sitzt einer Therapeutin oder einem Therapeuten gegenüber und spricht über Ängste, traumatische Erlebnisse und Probleme. Wenigstens war das bisher so: Neue Studien zeigen, dass die Künstliche Intelligenz in vielen Fällen die Rolle eines Therapeuten übernehmen, ja die Psychotherapie revolutionieren könnte. Ein Computer als «Seelendoktor» – wie soll das gehen? Ich vermute, wir überschätzen dabei die Rolle des Computers (und des Therapeuten) und unterschätzen die Rolle des Menschen. Wir sind wahre Interpretationsmaschinen und sind sogar in der Lage, in eine Handvoll sich bewegende Dreiecke eine Geschichte hineinzulesen. Joseph Weizenbaum nennt es den «Eliza-Effekt»: Schon in den 60er Jahren reichten ein paar simple Textbausteine, um Menschen das Gefühl zu geben, verstanden zu werden. Erst recht gilt das im Umgang mit einer chattenden KI. Wir halten sie für klug, weil wir es selber sind.

Noch ist die Studienlage eher dünn, die Befunde weisen aber alle in eine ähnliche Richtung: Large Language Models wie ChatGPT können in der Psychotherapie hilfreich sein. Erste Studien deuten darauf hin, dass Patienten eine therapeutische Beziehung zu einem Chatbot aufbauen können. Betroffene berichten, dass sie den Austausch mit einem KI-Chatbot als hilfreich empfinden. Ängste und Sorgen wurden nach dem «Gespräch» mit der KI als weniger belastend empfunden.

 

Wohlverstanden: Das sind nicht einfach ein paar subjektive Eindrücke. Das ist das Resultat von grossen Übersichtsstudien. Es gibt klare Hinweise darauf, dass KI-Chatbots die psychische Belastung signifikant reduzieren können. Besonders wirksam sind sie bei Depressions- und Belastungssymptomen. Noch nicht untersucht ist die langfristige Wirkung und die Qualität der therapeutischen Beziehung. Vor allem bei schweren Störungen sind die Chatbots definitiv kein Ersatz menschlicher Therapeuten. Trotzdem sind die Resultate für viele Psychotherapeuten ein Schlag ins Gesicht: Ausgerechnet sie, die sich der «Behandlung der Seele» verschrieben haben, sollen sich durch eine Maschine ersetzen lassen?

Eliza war die Erste

Neu ist die Therapie durch den Computer allerdings nicht. Schon 1966 entwickelte der Informatiker Joseph Weizenbaum am MIT das Programm Eliza. Das Programm war in der Lage, verschiedene Skripte zu laden und so verschiedene Gesprächsrollen einzunehmen. Bekannt wurde es für ein Skript, mit dem Eliza einen Psychotherapeuten nach dem Vorbild von Carl Rogers simulierte. Dabei spiegelte es einfach die Aussagen der Nutzer. Wenn der Mensch am Computer tippte: «Ich bin traurig.», fragte Eliza: «Sie sagen, Sie fühlen sich traurig?» und wenn man schrieb «Ich habe Probleme mit meiner Mutter.», sagte Eliza: «Erzählen Sie mir mehr von Ihrer Familie.» Joseph Weizenbaum selbst schrieb später, das Programm habe ein Gespräch nicht simuliert, sondern eher parodiert. Er sprach zuweilen sogar von einer Satire auf Carl Rogers.

Umso mehr war Weizenbaum verblüfft, wie ernst Menschen Eliza nahmen. Seine eigene Sekretärin bat ihn, den Raum zu verlassen, damit sie ungestört mit Eliza sprechen könne. Er war bestürzt, dass Psychiater in den USA im Ernst glaubten, das Programm könnte «zu einer fast völlig automatischen Form der Psychotherapie ausgebaut werden», erzählt er in seinem Buch «Die Macht der Computer und die Ohnmacht der Vernunft». Weizenbaum war entsetzt: Ein paar simple Textbausteine reichten, um Menschen das Gefühl zu geben, verstanden zu werden. Weizenbaum schreibt:

Ich konnte bestürzt feststellen, wie schnell und wie intensiv Personen, die sich mit Eliza unterhielten, eine emotionale Beziehung zum Computer herstellten und wie sie ihm eindeutig menschliche Eigenschaften zuschrieben. … Ich hatte selbstverständlich gewußt, daß sich Menschen in der unterschiedlichsten Weise mit Maschinen wie etwa Musikinstrumenten, Motorrädern und Autos emotional verbunden fühlen. Und aus langer Erfahrung wußte ich, daß die starken emotionalen Beziehungen, die bei vielen Programmierern zu ihren Computern bestehen, sich oft schon nach kurzem Kontakt zu den Maschinen herstellen. Was mir jedoch nicht klar war: daß ein extrem kurzer Kontakt mit einem relativ einfachen Computerprogramm das Denken ganz normaler Leute in eine ernstzunehmende Wahnvorstellung verkehren konnte. Diese Erkenntnis brachte mir aufs Neue die Bedeutung der Probleme zu Bewußtsein, die sich aus der Beziehung zwischen dem einzelnen und dem Computer ergeben, und ich entschloß mich, daran weiter zu arbeiten. («Die Macht der Computer und die Ohnmacht der Vernunft», Seite 19f.)

Weizenbaum nennt die emotionale Bindung an die Maschine hier eine «Wahnvorstellung». Später sprach er vom «Eliza-Effekt»: Wir neigen dazu, den Ausgaben von Computern Absicht und Verständnis zuzuschreiben, obwohl es sich dabei nur um Zeichenketten handelt. Anders gesagt: Viele Menschen behandeln ihren Computer oder einzelne Programme darauf wie einen anderen Menschen. Warum nur?

Anthropomorphisierung und Interpretation

In der Kommunikationstheorie reden wir vom Sender und vom Empfänger. Das vermittelt den Eindruck, nur der Sender oder der Sprecher spiele eine aktive Rolle, während der Zuhörer passiv empfängt, was der Sender sendet. Doch dieses Bild ist falsch: Der Zuhörer ist genauso aktiv. Er interpretiert Worte, Mimik und Gesten des Sprechers und liest dabei ständig zwischen den Zeilen. Er entschlüsselt Ironie und spürt Untertöne, dechiffriert Subtext – und entdeckt manchmal Absichten, die gar nicht vorhanden sind.

Wir Menschen sind Interpretationskünstler. Leider können wir diese Interpretationskraft nicht abstellen und wenden sie zum Beispiel auch auf unsere Haustiere an. Wir «entschlüsseln» auch unsere Hunde und Katzen und wissen genau, wenn sich der Hund «schämt» oder die Katze «traurig» ist, wir meinen, die Affen im Zoo zu verstehen und natürlich auch die Pferde auf der Weide. Diesen Vorgang nennt man «Anthropomorphisieren»: Wir vermenschlichen die Tiere und überinterpretieren sie dabei.

Genau dieser Vorgang ist auch bei Computern festzustellen. Apple hat schon früh damit gespielt – vielleicht erinnern Sie sich noch an den ersten Macintosh-Computer, der seine Benutzer mit «hello» begrüsste, oder an das Symbol des «HappyMac», das auf dem Mac OS X als Startsymbol diente. Google knüpft mit Gemini daran an und begrüsst mich seit kurzem mit einem freundlichen «Hallo». Ganz besonders gilt das für Computer, die uns in unserer Sprache antworten. Kaum sprechen sie deutsch, schreiben wir ihnen Empathie, Intelligenz und Verständnis zu.

Das ist keine Schwäche, sondern eine wesentliche Fähigkeit des Menschen. Fritz Heider und Marianne Simmel zeigten schon 1944, dass Menschen simple Dreiecke und Kreise als handelnde Figuren deuten und ihnen Motive und Absichten unterstellten. Sie zeigten den Probanden einen kurzen Zeichentrickfilm, in dem ein grosses und ein kleines Dreieck und ein kleiner Kreis sich in einem rechteckigen Kasten bewegten. Die Formen bewegten sich scheinbar willkürlich. Die Probanden sahen darin aber keine geometrischen Muster, sondern interpretierten es als Geschichte: Das grosse Dreieck wurde als Aggressor interpretiert, das kleine Dreieck als Held und der Kreis als Opfer.

Die eigentliche Arbeit des Verstehens

Schon Dreiecke und Kreise können uns also zu Mitgefühl inspirieren: Blosse geometrischen Formen setzen etwas in uns in Bewegung. Wenn das schon ein paar Dreiecke schaffen, dann gilt das umso mehr für Worte und erst recht für Gespräche. Die Worte setzen unser Interpretationsvermögen in Gang. Eine ähnliche Eigenaktivität findet auch in einer Psychotherapiesitzung statt: Der Therapeut ist kein simpler «Mechaniker der Seele», der mit gezielten Eingriffen etwas repariert. Er setzt im Gespräch mit Fragen und Hinweisen Reize und bringt damit das Innenleben des Patienten in Bewegung. Die eigentliche «Arbeit» macht der Patient selbst, indem er darauf reagiert.

Der Psychologe Carl Rogers, der von Eliza parodiert wurde, hat das mit seinem Konzept der klientenzentrierten Psychotherapie so formuliert: Der Therapeut schafft nur den Rahmen, in dem sich die Selbstheilungskräfte des Klienten entfalten sollen. Der Psychotherapieforscher Jerome Frank hat das schon 1961 nachgewiesen. Er sagt, dass alle Therapien, ob Psychoanalyse, Verhaltenstherapie oder Gesprächstherapie, letztlich funktionieren, indem sie den Patienten ein Ritual und eine Möglichkeit anbieten, in der er selbst aktiv wird.

Wie die KI davon profitiert

Wenn es so ist, dass die Wirksamkeit einer Psychotherapie im Wesentlichen auf der Eigenaktivität des Patienten beruht, dann überrascht es nicht, dass auch ein KI-Chatbot therapeutische Effekte zeigen kann. Nicht, weil die Maschine den Patienten besonders gut versteht, sondern weil die KI in der Lage ist, mit Fragen und Gesprächselementen ähnliche Prozesse im Patienten anzustossen. Möglich ist das, weil der Mensch am Computer nicht anders kann, als die Texte auf dem Bildschirm aktiv zu interpretieren.

Die Chatbots stossen also unser Verstehen an und lösen unsere Interpretationskraft aus – wie damals die Dreiecke und Kreise im Experiment von Fritz Heider und Marianne Simmel. Die Künstliche Intelligenz muss dafür weder intelligent noch emphatisch sein. Sie bildet lediglich eine Art Resonanzraum, einen Spiegel, der es uns erlaubt, unser eigenes Denken und Fühlen zu ordnen. Die Chatbots wirken also nicht durch eine bestimmte Technik oder Leistung, sondern über die gemeinsamen Wirkfaktoren (common factors), also Rahmen, Ritual und Erwartung.

Das bedeutet aber auch, dass wir die KI überschätzen, weil wir unsere eigene Aktivität unterschätzen. Wir verstehen unser Verstehen nicht und projizieren das, was in unserem Inneren vorgeht, auf die Maschine. Oder die Katze, den Hund und die Dreiecke. KI könnte also durchaus eine Rolle spielen in der Psychiatrie (wenn sie therapeutisch besser kontrolliert wird). Aber die eigentliche Arbeit nimmt dabei nicht die KI vor. Es ist und bleibt die Leistung des Menschen am Computer. Der Chatbot wirkt nur als Katalysator.

Anders gesagt: Klug ist nicht die Maschine, sondern der Mensch, der an der Maschine sitzt, weil er in  Zeichen und Mustern Sinn entdecken kann. Die Intelligenz sitzt also weiterhin nicht im, sondern am Computer.

Basel, 19.09.2025, Matthias Zehnder mz@matthiaszehnder.ch

Bleiben Sie auf dem Laufenden:

Hier den Wochenkommentar abonnieren.

  • Hinweis auf den neuen Wochenkommentar
  • Ein aktueller Sachbuchtipp
  • Ein Roman-Tipp
  • Das neue Fragebogeninterview

Nur dank Ihrer Unterstützung ist der Wochenkommentar möglich. Herzlichen Dank dafür!

Lieber hören als lesen?


Quellen:

Bild: Die legendäre Couch von Sigmund Freud aus seiner Praxis in der Berggasse 19 in Wien. Wo auf dem Originalbild eine Darstellung der vier Sitzstatuen von Abu Simbel in Ägypten zu sehen sind, habe ich das Symbolbild einer KI einmontiert.. (Montage unter Verwendung von KEYSTONE/AP Photo/Khue Bui und stock.adobe.com)

Cabrera Lozoya, Daniel; Conway, Mike; Sebastiano De Duro, Edoardo; D’Alfonso, Simon (2025): Leveraging Large Language Models for Simulated Psychotherapy Client Interactions: Development and Usability Study of Client101, in: JMIR Medical Education, 11, 2025, S. e68056–e68056, https://mededu.jmir.org/2025/1/e68056 [18.09.2025].

Frank, Jerome D.; Frank, Julia; Wampold, Bruce E. (2025): Persuasion and healing: a comparative study of psychotherapy, Updated edition, Baltimore, Maryland 2025.

Li, Han; Zhang, Renwen; Lee, Yi-Chieh; Kraut, Robert E.; Mohr, David C. (2023): Systematic review and meta-analysis of AI-based conversational agents for promoting mental health and well-being, in: npj Digital Medicine, 6,1, 2023, S. 236, https://www.nature.com/articles/s41746-023-00979-5 [18.09.2025].

Na, Hongbin; Hua, Yining; Wang, Zimu; Shen, Tao; Yu, Beibei; Wang, Lilin; Wang, Wei; Torous, John; Chen, Ling (2025): A Survey of Large Language Models in Psychotherapy: Current Landscape and Future Directions, 2025, https://arxiv.org/abs/2502.11095 [18.09.2025].

Ovsyannikova, Dariya; De Mello, Victoria Oldemburgo; Inzlicht, Michael (2025): Third-party evaluators perceive AI as more compassionate than expert humans, in: Communications Psychology, 3,1, 2025, S. 4, https://www.nature.com/articles/s44271-024-00182-6 [18.09.2025].

Simmel, Marianne; Heider, Fritz 1944: An Experimental Study of Apparent Behavior. American Journal of Psychology 57(2): 243–259

Rogers, Carl R.; Dorfman, Elaine; Gordon, Thomas; Hobbs, Nicholas (2015): Client centered therapy: its current practice, implications and theory, Reprinted, London 2015.

Weizenbaum, Joseph (1966): ELIZA – a computer program for the study of natural language communication between man and machine, in: Communications of the ACM, 9,1, 1966, S. 36–45, https://dl.acm.org/doi/10.1145/365153.365168 [18.09.2025].

Weizenbaum, Joseph (2023): Die Macht der Computer und die Ohnmacht der Vernunft, übers. v. Udo Rennert, 16. Auflage, Frankfurt am Main 2023 suhrkamp taschenbuch wissenschaft 274.

 

 

2 Kommentare zu "Psychotherapie durch KI? – Die eingebildete Heilung"

  1. „Die Intelligenz sitzt also weiterhin nicht im, sondern am Computer“ schreibt M. Z. abschliessend. Wie wahr – und noch mehr: Das Emphatische, das Einfühlende, das Liebevolle, das Verständige, das Herzliche, das Mitmenschliche sitzt sicher auch am und nicht im Computer – gerade in diesem Fachgebiet Psychotherapie wichtig.
    Und das wird leider neuestens kräftig ausgenutzt und es wird kräftig abgerechnet. Denn seit Juli 2022 können psychologische Psychotherapeuten in der Schweiz die Leistungen direkt mit den Krankenkassen abrechnen, was zu einem deutlichen Kostenanstieg in der Grundversicherung führte. Dieser «Systemwechsel» verteuerte die psychologischen Psychotherapien um 394 Millionen Franken zwischen 2021 und 2024, also von 528 auf 922 Millionen Franken. Die Kosten stiegen im ersten Jahr um rund 40% und die Mehrkosten belaufen sich langfristig auf Hunderte Millionen Franken pro Jahr.
    Sind wir jetzt wirklich plötzlich eine so kaputte Gesellschaft geworden (justement seit dem Systemwechsel), wird zu kräftig abgerechnet oder bringen die Asylgesuche die Zahlen nach oben, vor einigen Jahren schon wurden Asylsuchende mit psychischen Krankheiten auf 10 – 15% geschätzt, Tendenz steigend; Quelle SEM (Staatssekretariat für Migration); da es sich herumgesprochen hat, so (noch) weniger zurückgewiesen zu werden. Auch auf diese finanziellen Auswüchse unserer Steuerlast sollte mehr geachtet werden – auch dies (wie oben) lieber und besser von seriösen, neutralen, objektiven von Menschen als von KI….

Schreiben Sie einen Kommentar

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre, wie deine Kommentardaten verarbeitet werden.