KI-Denkfehler 29: KI ist emphatisch

Publiziert am 3. Februar 2026 von Matthias Zehnder

Das sieht oft so aus. Doch was nach Mitgefühl aussieht, ist in Tat und Wahrheit pures Kalkül. Und zwar wörtlich: Die Chatbots sind nicht in der Lage, Gefühle zu erwidern. Es sind Sprachmodelle, die eine passende Antwort aufgrund von statistischen Analysen verfertigen. Weil es sich dabei um kommerzielle Angebote handelt, die stark genutzt werden sollen, sind sie darauf trainiert, den Nutzern um den Bart zu streichen. Sie bestätigen und bestärken den Anwender – und der fühlt sich positiv bestätigt und verstanden. Was nach Empathie aussieht, ist also eigentlich pure Berechnung und damit strukturelle emotionale Ausbeutung.

1. Aspekt: Ohne Herz, keine Gefühle

Keiner der KI-Chatbots hat ein Herz: Es sind Computerprogramme, die nicht dazu in der Lage sind, Gefühle zu entwickeln. Das macht den Umgang mit den Bots ja so bequem: Wir haben es mit Maschinen zu tun und müssen keine Rücksicht auf ein Gegenüber nehmen. Der Bot generiert ohne mit der Wimper zu zucken auch eine elfte Variante, denn es fehlt ihm nicht nur das Herz, sondern auch die Wimpern.

Chatbots können Gefühle aber sehr eloquent simulieren. Weil wir darauf trainiert sind, die Gefühle unserer Mitmenschen an ihren sprachlichen Äusserungen abzulesen, interpretieren wir die Texte, als hätte sie ein Mensch geschrieben. Wenn die Texte Gefühle enthalten, dann sind es also unsere eigenen Emotionen.

2. Aspekt: Wir verwechseln Narzissmus mit Mitgefühl

Schon Eliza, das Chat-Script von Joseph Weizenbaum, erzeugte ein Gefühl von Verständnis durch blosse Spiegelung: Wie die Karrikatur eines Psychiaters wiederholte Eliza die Eingabe der User. Die waren begeistert, weil sie sich endlich verstanden fühlten.

Steuern Sie selbst, statt sich treiben zu lassen. KI-Vorträge für Menschen, die ihre Zukunft selber gestalten wollen.

Die modernen Chatbots sind viel sprachmächtiger als Eliza, nutzen aber ganz ähnliche Techniken der Spiegelung. Das bedeutet: Was wir für Mitgefühl halten, ist in Tat und Wahrheit ein gezieltes Streicheln unseres Narzissmus.

3. Aspekt: Die Schwachstelle ist der Mensch

Bei Lichte besehen ist die vermeintliche Stärke der Maschine eine Schwäche von uns Menschen: Wir lassen uns nur zu gerne verführen. Endlich ist da jemand, der nicht widerspricht, sondern uns so nimmt, wie wir sind, ja uns darin bestärkt. Unser Wunsch ist also der Vater des vermeintlichen Mitgefühls.

Doch die Maschine ist so emphatisch wie ein Spiegel. Wir sehen darin nur, was wir sehen wollen: Uns selbst.

Fazit:

Als ich studierte, hing im Büro des Deutschen Seminars an der Universität Zürich ein Plakat von Greenpeace. Darauf war ein grosses Fischstäbchen abgebildet. Darunter stand: «Wenn Dir das Fisch genug ist, kann Dir die Nordsee auch egal sein.» Das kommt mir in den Sinn, wenn Menschen sich von der KI ach so gut verstanden fühlen. Ein Problem dabei ist, dass viele Menschen gar kein echtes Mitgefühl suchen. Gefühle sind oft widersprüchlich und können herausfordernd sein. So ein Fischstäbchen ist viel harmloser. Die Simulation von Mitgefühl durch die KI ist pflegeleicht, die KI hat keine Ansprüche, der Anwender geht keine Verpflichtungen ein. Damit bietet die KI das Gegenteil einer menschlichen Beziehung: Fischstäbchen aus der rechnerischen Tiefkühltruhe statt lebendigen Fisch im Meer.


Praxistipp:

Nutze die KI nicht als Ersatz für menschliche Kontakte, sondern als Sparringpartner für das Aufschreiben Deiner Gefühle. Die KI kann Dir als Sprachmaschine dabei helfen, Gefühle zu sortieren und zu artikulieren. Nutze dazu den folgenden Prompt:

Prompt: KI als Sparringspartner für emotionale Klarheit
Ich möchte ein Gefühl oder eine emotional aufgeladene Situation besser verstehen und in Worte fassen. Hilf mir dabei, indem du:
Nachfragst, was genau ich fühle und in welcher Situation das Gefühl auftritt
Mir hilfst, das Gefühl präziser zu benennen (z.B. ist es Wut, Enttäuschung, Ohnmacht?)
Unterschiedliche Aspekte oder Schichten des Gefühls herausarbeitest
Mir am Ende hilfst, 2-3 klare Sätze zu formulieren, die ich in einem echten Gespräch mit der betroffenen Person verwenden könnte
Wichtig: Bestätige mich nicht einfach. Hilf mir, präzise zu werden. Frage nach, wenn etwas unklar bleibt. Dein Ziel ist nicht, mich zu trösten, sondern mir zu helfen, meine Gefühle so klar auszudrücken, dass ich sie mit einem Menschen teilen kann.


3.2.2026, Matthias Zehnder mz@matthiaszehnder.ch

Bleiben Sie auf dem Laufenden:

Abonnieren Sie meinen Newsletter.

  • Hinweis auf den neuen Wochenkommentar
  • Ein aktueller Sachbuchtipp
  • Ein Roman-Tipp
  • Das neue Fragebogeninterview

Nur dank Ihrer Unterstützung ist der Wochenkommentar möglich. Herzlichen Dank dafür!


Unterstützen Sie unabhängiges Denken – mit einem einmaligen oder monatlichen Beitrag.

 

Ein Kommentar zu "KI-Denkfehler 29: KI ist emphatisch"

Schreiben Sie einen Kommentar

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre, wie deine Kommentardaten verarbeitet werden.