KI-Denkfehler #18: KI lernt wie wir

Publiziert am 20. November 2025 von Matthias Zehnder

Falsch: KI erlebt nichts, sie speichert nur. KI lernt nicht wie wir, weil sie nicht lebt wie wir. Menschen gewinnen Erkenntnis, weil sie handeln, scheitern, hoffen und Verantwortung tragen. Maschinen dagegen aggregieren Daten. Der Unterschied ist fundamental: Wir erleben, während KI berechnet. Wer das verwechselt, missversteht nicht nur die Technik, sondern auch sich selbst.

Sie schreiben eloquent, sie haben auf jede Frage eine Antwort und oft ist die auch gut. Die KI scheint in letzter Zeit einiges gelernt zu haben. Der Schluss liegt nahe: Die Maschine lernt – wie wir auch. Sie durchläuft ein Training, verarbeitet Rückmeldungen und verbessert schrittweise ihre Ergebnisse. Es sieht aus, als würde die KI wie ein Mensch lernen. Doch Menschen lernen nicht nach Zahlen. Es sind vor allem Erfahrungen und Erlebnisse, die Menschen prägen und körperlich, emotional und geistig Spuren hinterlassen. Wir lernen aus unseren Erfolgen, aber auch aus unseren Irrtümern und Verletzungen. Sie formen unsere Urteile. Eine KI kennt weder Verletzung noch Enttäuschung.

Die KI basiert nicht auf Erfahrung, sondern auf Statistik. Sie kalkuliert Beziehungen zwischen Datenpunkten. Ihre «Lernprozesse» sind lediglich neu errechnete Korrelationen. Das ist kein gradueller, sondern ein kategorialer Unterschied. Wer ihn verwischt, schreibt der KI Fähigkeiten zu, die sie nicht besitzt, und beraubt gleichzeitig den Menschen um das, was ihn ausmacht.

Wenn wir darüber sprechen, wie KI lernt, sprechen wir immer auch darüber, was menschliches Lernen eigentlich bedeutet. Und das führt direkt zu drei Denkfehlern.

1. Denkfehler: KI versteht, was sie lernt

Weil KI überzeugende Antworten formuliert, halten viele sie für ein denkendes Gegenüber. Das ist der Eliza-Effekt: Die Eloquenz der Maschine verführt uns dazu, ihr ein Innenleben zuzuschreiben. Doch die KI versteht nicht wirklich, sie berechnet nur Muster und verbindet statistische Wahrscheinlichkeiten. Sie hat keine Ahnung, was sie sagt und deshalb auch keine Ahnung davon, was die neuen Muster bedeuten.

Menschen lernen, weil sie Ziele haben und dabei den Kopf anschlagen, etwas probieren und sich dabei die Finger verbrennen, mutig sind und manchmal reüssieren. Entscheidend dabei ist der Wille, ein Ziel zu erreichen, ganz egal, wie oft man sich das Knie aufschürft dabei. Wir lernen also, indem wir uns auf die Welt einlassen, indem wir handeln. Wir erinnern uns an Situationen, die uns geprägt haben, an Augenblicke, die uns überrascht oder erschüttert haben. Diese Erlebnisse verdichten sich zu Einsichten.

Die KI dagegen lernt nichts im eigentlichen Sinn. Sie erlebt weder Widerstand noch Resonanz. Sie weiss nicht, warum etwas geschieht. Bei Lichte betrachtet weiss sie gar nicht, dass etwas geschieht. Ihre «Erkenntnisse» bleiben lose Rechenresultate ohne Verankerung. Wer ihr Verständnis zuschreibt, verwechselt flüssige Sprache mit klarem Denken und macht aus einem Sprachmodell ein bewusstes Subjekt.

2. Denkfehler: Mehr Daten bedeuten mehr Verständnis

Wer glaubt, die KI werde mit zunehmender Datenmenge automatisch klüger, macht eine simple Gleichung: mehr Input, besseres Lernen. Wenn es um Modellrechnungen geht, mag das stimmen: Eine Wetterprognose wird besser, wenn mehr Datenpunkte vorliegen. Bei Menschen ist es nicht anders: Wir verstehen eine Sache nicht unbedingt besser, wenn wir sie tausendfach sehen. Entscheidend ist für das Verständnis, dass wir etwas erleben, durchdenken und in unsere eigene Welt einfügen.

Wenn Menschliches etwas verstehen, ist das Aneignung: Wir prüfen, zweifeln, vergleichen, interpretieren. Wir entwickeln ein inneres Modell der Welt, unser Weltbild. Das ermöglicht es uns, einzelne Erfahrungen einzuordnen. Ein Weltbild stiftet deshalb Bedeutung.

Die KI kennt Aneignung in diesem Sinne nicht. Sie verarbeitet Muster, ohne ihren Sinn zu begreifen. Was bei Menschen zu Reifung führt, führt bei Maschinen allenfalls zu Verdichtung. Mehr Daten lassen die KI nicht besser verstehen, sondern nur präziser vorhersagen.

Grössere Datenmengen führen nicht automatisch zu mehr Einsicht, weil Rechenkapazität nichts mit Erkenntnis zu tun hat.

3. Denkfehler: KI entwickelt eine Moral

Maschinen ordnen, sie beurteilen nicht. Im Umgang mit der KI entsteht dennoch manchmal der Eindruck, eine KI könne moralisch lernen, weil sie regelkonforme Antworten liefert oder soziale Normen korrekt wiedergibt. Für eine KI sind das aber blosse Regeln, keine Moral. Haltung entsteht nicht aus Vorgaben, sondern aus Erfahrungen und auf der Basis von Beziehungen.

Menschen entwickeln moralische Urteile, weil sie wissen, was es heisst, zu verletzen oder verletzt zu werden. Sie kennen Schuld, Reue, Mut und Furcht. Das formt unsere Fähigkeit, Situationen nicht nur zu beurteilen, sondern auch emotional zu bewerten. Moral entsteht zum Beispiel aus Mitleid – mit anderen und mit sich selbst.

Eine KI kennt weder Schuldgefühl noch Empathie. Sie verfügt nicht über ein Bewusstsein, das zwischen richtig und falsch unterscheiden könnte. Vor allem kennt eine KI kein Mitleid. Sie kann Aussagen klassifizieren oder Handlungen als unerwünscht markieren, weil sie statistische Muster erkennt. Aber sie begreift nicht, warum diese Muster gelten. Sie kennt keine Werte, nur Wahrscheinlichkeiten und ist deshalb den Vorurteilen in den Daten hilflos ausgeliefert.

Wer KI moralische Kompetenz zuschreibt, verwechselt angepasstes Verhalten mit innerer Einsicht. Das überhöht die Regelmaschine zu einem moralischen Akteur und verzwergt, was den Menschen ausmacht: sein Gewissen.

KI lernt nicht, sie trainiert

Wer die Verbesserungen der KI als «Lernen» bezeichnet, suggeriert eine Ähnlichkeit, wo es keine gibt: menschliches Lernen und maschinelle Entwicklung funktionieren ganz anders. Es sind völlig unterschiedliche Prozesse. Menschen lernen, weil sie leben. Sie sammeln Erfahrungen, die sich in Körper und Geist einschreiben. Sie entwickeln Urteile, weil sie Verantwortung tragen, Schmerzen erleiden, Erfolge feiern und mit anderen Menschen Freude und Leiden teilen. Was wir lernen, wird so zu unserer Identität.

KI hingegen verarbeitet lediglich Daten. Sie erkennt Muster, weil man sie darauf trainiert hat. Sie entwickelt weder Einsicht noch Haltung. Ihre Ergebnisse entstehen aus Berechnungen, nicht aus Erfahrungen. Wer diese Unterschiede verwischt, überschätzt die Fähigkeiten der Technik und unterschätzt die Besonderheit des Menschen.

Deshalb ist es gefährlich, bei der KI von «lernen» zu reden. Es verführt dazu, ihr Kompetenzen zuzuschreiben, die sie nicht besitzt, und sie in Rollen einzusetzen, für die sie nicht gemacht ist. KI kann schneller rechnen, mehr Daten verarbeiten und besser formulieren. Aber erleben kann sie nicht.

Wer versteht, dass KI trainiert und Menschen lernen, schützt nicht nur sich selbst vor falschen Erwartungen, sondern auch die Gesellschaft vor der Illusion, man könne Verantwortung an Maschinen delegieren. Lernen bleibt eine zutiefst menschliche Fähigkeit. KI kann sie imitieren, aber nie ersetzen.

20.11.2025, Matthias Zehnder mz@matthiaszehnder.ch

Bleiben Sie auf dem Laufenden:

Abonnieren Sie meinen Newsletter.

  • Hinweis auf den neuen Wochenkommentar
  • Ein aktueller Sachbuchtipp
  • Ein Roman-Tipp
  • Das neue Fragebogeninterview

Nur dank Ihrer Unterstützung ist der Wochenkommentar möglich. Herzlichen Dank dafür!


 

Ein Kommentar zu "KI-Denkfehler #18: KI lernt wie wir"

  1. KI hat keinen Willen. Sie kann deshalb nicht nur wissen wollen, was sie wissen will. Wie das Menschen tun, wenn sie nur wissen wollen, was sie wissen wollen: was mich manchmal nicht froh und glücklich werden lässt. KI muss – falls sie nicht anders programmiert ist – immer alles wissen, was sie wissen kann: was mich nicht immer froh und glücklich macht.

Schreiben Sie einen Kommentar

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre, wie deine Kommentardaten verarbeitet werden.