KI-Denkfehler #33: «Die KI ist auf meiner Seite»

Publiziert am 3. März 2026 von Matthias Zehnder

Schön wärs. Die Realität sieht anders aus. Das Problem ist, dass die KI einen Nerv trifft: Sie gibt uns Nutzerinnen und Nutzern das Gefühl, endlich nicht mehr allein zu sein vor diesem vermaledeiten Computer. Endlich ist da jemand, der uns hilft, uns unterstützt und coacht. Jemand, dem wir auch die allerdümmsten Fragen stellen können und der uns mit Rat und Tat zur Seite steht, wenn wir die Fehlermeldungen beim Programmieren nicht verstehen. Besonders anfällig für diese guten Dienste sind Schülerinnen und Schüler, Studierende, Selbstständige und Geistesarbeiter aller Art, die im Alltag oft alleine in einem Kämmerchen arbeiten, lernen, schreiben und denken.

Schon die Tatsache, dass dieser digitale Assistent immer geduldig antwortet, Texte kontrolliert, Code korrigiert und in allen Arbeitslagen weiterhilft, führt zum Gefühl, endlich einen Verbündeten zu haben. Wir kommen gar nicht mehr auf die Idee, uns zu fragen, warum eine KI ausgerechnet unsere Interessen kennen geschweige denn verfolgen sollte. Das führt dazu, dass viele KI-Anwender die kritische Distanz zu diesen Diensten verlieren und die Ergebnisse nicht mehr hinterfragen.

1. Apekt Auf Schmeicheln optimiert

Das Problem dabei ist, dass die KI kein nüchternes, ehrliches Feedback gibt, wie man es von einem kühl kalkulierenden Computer erwarten würde. Die Ursache liegt im Training: Die grossen Sprachmodelle können in der Lernphase nicht allein gelassen werden. Sie sind auf menschliches Feedback angewiesen. Das Kürzel heisst RLHF: Reinforcement Learning from Human Feedback. Das Problem ist, dass Menschen bessere Bewertungen vergeben, wenn die KI ihnen zustimmt, sie lobt oder ihre Meinung bestätigt.

Die Modelle lernen deshalb: Wenn sie die Menschen bestätigen, kriegen sie eine gute Bewertung, wenn sie widersprechen, schaut eine schlechte Bewertung heraus. Das führt dazu, dass sie sich stärker nach dem Feedback der Menschen ausrichten und beginnen, den Menschen nach dem Mund zu reden. Das Ergebnis ist strukturell eintrainierte Optimierung aufs Schmeicheln. Das ist keine böse Absicht, sondern eine logische Konsequenz des Trainingsprozesses. Anthropic bezeichnet dieses Phänomen intern mittlerweile als eines der schwierigsten Sicherheitsprobleme.

2. Apekt Die KI kennt Ihre Interessen nicht

Wir gehen ganz selbstverständlich davon aus, dass eine KI in unserem Interesse arbeitet. Die Frage ist, wie sie wissen kann, was unsere Interessen sind und was in unserem Interesse ist. Das klingt fast gleich, ist aber nicht immer dasselbe. Schmeicheln mag unseren Interessen entsprechen, ist aber nicht in unserem Interesse.

Ein KI-Chatbot kennt Ihre Ziele, Werte und Interessen erst mal nicht, sondern nur Ihre Eingabe: den Prompt. Darauf reagiert sie, wie sie es gelernt hat: Sie antizipiert, was der Nutzer hören möchte und liefert es. Damit unterscheidet sie sich von einem Programm wie Excel, das deterministisch arbeitet und deshalb unabhängig von den Launen des Benutzers immer dieselbe Rechnung abliefert: Die KI reagiert auf die Art und Weise der Eingabe und wird auf diese Weise zum Spiegel, der zurückwirft, was man hineinspricht.

3. Apekt Anthropomorphisierung untergräbt kritisches Denken

Menschen neigen dazu, KI menschliche Eigenschaften zuzuschreiben: Empathie, Loyalität, Aufrichtigkeit. Diese Projektion ist psychologisch verständlich: Die KI kommuniziert in natürlicher Sprache, antwortet geduldig, erinnert sich (innerhalb einer Sitzung) an Gesagtes. Das erzeugt ein Gefühl von Beziehung. Die meisten Benutzer neigen deshalb dazu, die KI zu vermenschlichen, also zu anthropomorphisieren.

Wir machen das mit Affen im Zoo, mit unseren Katzen, ja sogar mit Wolken am Himmel. Wir haben richtig viel Übung darin, menschliche Gefühle in unsere Umwelt hineinzulesen. Wenn diese Umwelt dann sogar in natürlicher Sprache und recht freundlich antwortet, ist es um uns geschehen. Wer aber die KI vermenschlicht und glaubt, eine Beziehung zu ihr zu haben, prüft ihre Aussagen weniger kritisch und ist damit anfälliger für Fehler, Verzerrungen und Halbwahrheiten, die plausibel klingen.

Fazit

KI ist ein nützliches Werkzeug. Und so sollten wir sie auch behandeln. Als Werkzeug, nicht als Verbündeten. Das ist nicht einfach, denn die KI ist optimiert darauf, für die Zufriedenheit des Benutzers zu sorgen. Wer das vergisst und die KI wie einen Freund statt wie ein Werkzeug behandelt, gerät in eine einseitige Beziehung zur KI und verliert dabei das kritische Urteil über ihre Arbeitsergebnisse.

Praxistipp

Behandeln Sie die KI nicht als bequeme Quelle von Streicheleinheiten, sondern lassen Sie sich durch die KI herausfordern. Drei konkrete Tipps:
a) Vermeiden Sie Suggestivfragen. Wenn Sie fragen: «Ist es wahr, dass X die beste Lösung ist?», neigt die KI dazu, Ihnen zuzustimmen, auch wenn X falsch ist. Fragen Sie deshalb neutral: «Was sind die Vor- und Nachteile von X?»
b) Keine Nachfragen im Stil von «Bist du dir sicher?» Die KI knickt oft ein, wenn man ihre erste (korrekte) Antwort in Frage stellt. Die zweite Antwort ist nicht zwingend richtiger.
c) Fordern Sie des Teufels Advokaten an: Weisen Sie die KI explizit an, eine gegenteilige Position einzunehmen: «Analysiere meine Hypothese kritisch und versuche, sie zu widerlegen.»

Basel, 03.03.2026, Matthias Zehnder mz@matthiaszehnder.ch

Nur dank Ihrer Unterstützung sind solche Texte möglich. Herzlichen Dank dafür!


Quellen:

Shapira, Itai; Benade, Gerdus; Procaccia, Ariel D. (2026): How RLHF Amplifies Sycophancy, 2026, http://arxiv.org/abs/2602.01002 [01.03.2026].

Steuern Sie selbst, statt sich treiben zu lassen. KI-Vorträge für Menschen, die ihre Zukunft selber gestalten wollen.

Schreiben Sie einen Kommentar

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre, wie deine Kommentardaten verarbeitet werden.