KI-Denkfehler #38: «KI macht mich unabhängiger.»

Publiziert am 7. April 2026 von Matthias Zehnder

Nice try. Leider ist es umgekehrt: Fachleute sprechen bereits von der «Erosion der Autonomie». Auf den ersten Blick sieht es so aus, als würden KI-Dienste uns alle zu kleinen Superwomen und Supermen machen: Die Technik befreit vom mühseligen Schreiben, ermöglicht Vibe Coding und erklärt vom Kühlschrank bis zur Pubertät jedes Rätsel, dem wir im Alltag begegnen. Viele User erleben das als Befreiung von Mühsal, der Abhängigkeit von Fachleuten, Bedienungsanleitungen und anderen Unannehmlichkeiten.

Doch die KI ist nicht bloss ein weiteres Werkzeug. Vom Buchdruck über den Taschenrechner bis zur Internet-Suchmaschine haben neue Technologien primär der Speicherung, Verbreitung oder der schrittweisen Verarbeitung von Informationen gedient. Die Künstliche Intelligenz ist anders: Sie greift direkt ein ins schlussfolgernde Denken, die konzeptionelle Synthese und die Problemlösung. Die KI ist also kein simples Informationswerkzeug, sondern eine Maschine, die unsere Urteilskraft ersetzt. Das ist zunächst einmal bequem. Neue empirische Studien aus den Jahren 2024 und 2025 deuten aber darauf hin, dass diese Bequemlichkeit der KI-gestützten Aufgabenbewältigung zu einem «Mental Offloading» führt, das so umfangreich ist, dass es zu einer schleichenden kognitiven Abhängigkeit und einer Atrophie kritischer Denkfähigkeiten kommt. Anders gesagt: Wer immer nur die Rolltreppe nimmt, darf sich nicht wundern, wenn er mit der Zeit nicht mehr Treppen steigen kann.

Steuern Sie selbst, statt sich treiben zu lassen. KI-Vorträge für Menschen, die ihre Zukunft selber gestalten wollen.

 

Ein Taschenrechner ist ein simples Werkzeug, das eine spezifische mathematische Operation übernimmt. Eine KI dagegen wird zum kognitiven Surrogat, das von der Problemformulierung über die Analyse bis zur Ergebnisfindung den ganzen Denkprozess übernimmt. Dieser Prozess wird theoretisch im Modell des «Cognitive Atrophy Paradox» (CAP) beschrieben. Forscher sprechen von einer paradoxen Entwicklung, weil wir die KI nutzen, um leistungsfähiger zu werden, uns genau damit aber kognitiv schwächen. Sehen wir uns diese paradoxe Entwicklung genauer an.

1. Phase: Denken ohne KI

Ohne KI-Unterstützung ist die kognitive Aktivität vollständig autonom: Der Mensch formuliert Probleme eigenständig, verarbeitet alle nötigen Informationen selbst und überprüft die Ergebnisse. Das Gehirn ist dabei im Austausch mit anderen Menschen und nimmt Informationen auf, es denkt aber ohne Hilfe von aussen. Jeder Lernzyklus wirkt dabei wie eine Form des kognitiven Trainings und festigt die mit dem Verstehen und Erinnern verbundenen neuronalen Bahnen.

2. Phase: Erweiterungsphase

Zunächst fungiert die Künstliche Intelligenz als kognitiver Assistent, der die menschliche Denkleistung gezielt unterstützt und erweitert. Es kommt zu einer synergetischen Zusammenarbeit, bei der die intellektuelle Souveränität des Nutzers vollständig erhalten bleibt. Das bedeutet, dass KI-basierte Werkzeuge wie Suchmaschinen, analytische Assistenten oder generative Modelle als unterstützende Erweiterung des menschlichen Intellekts eingesetzt werden. Sie verbessern die Datenverarbeitung und können dem Nutzer neue Perspektiven aufzeigen. KI-Werkzeuge werden primär dafür genutzt, Routineberechnungen und grundlegende Aufgaben zu übernehmen. Die konzeptionelle Kontrolle, die Interpretation und das eigentliche Verständnis liegen weiterhin vollständig beim Menschen.

3. Phase: Bypass-Phase

Da KI-Systeme immer präziser und flüssiger werden, beginnen Nutzer, interne Denkprozesse zu umgehen. Anstatt Wissen aufzubauen, greifen sie auf externes Wissen zurück. Verständnis des Wissens verliert an Bedeutung, wichtiger wird es, rasch und effizient auf die richtigen externen Speicher zugreifen zu können. Die Reflexion nimmt ab, und die Entlastung der kognitiven Fähigkeiten verwandelt sich in kognitive Vermeidung. Die Nutzer überspringen also das eigene Denken und greifen lieber direkt auf KI-Antworten zu. Beginnende Erosion der analytischen Tiefe.

4. Phase: Abhängigkeit

Wer kognitive Arbeit zunehmend an die Maschine delegiert, wird von der Maschine immer abhängiger. Das führt letztendlich zu kognitiver Passivität. Die Nutzer hören auf, von KI generierte Informationen zu überprüfen, zu interpretieren oder zu rekonstruieren, und akzeptieren algorithmische Ergebnisse als gegeben. Der Verstand trainiert analytische Prozesse nicht mehr und verliert nach und nach die Fähigkeit, diese Prozesse ohne externe Unterstützung selbstständig durchzuführen. Mit der Zeit kommt es zur vollständigen kognitiven Abhängigkeit.

In dieser letzten Phase der kognitiven Passivität tritt der Mensch kognitiv in den Hintergrund. Er ist eigentlich nur noch Vermittler zwischen einer Eingabe und dem von der KI generierten Output. Dieser Output wird unhinterfragt als absolute Wissensautorität hingenommen. Der Mensch hat dann auch die Fähigkeit verloren, über die Ergebnisse der KI hinauszuwachsen und jenseits des KI-Outputs innovativ oder kreativ tätig zu werden. Der Mensch verliert mit der Zeit die Fähigkeit, Denkprozesse ohne externe technologische Unterstützung überhaupt noch selbstständig in Gang zu setzen.

Fazit

Ziel der Arbeit mit der KI muss es sein, in der Phase 2 zu bleiben und die KI immer nur als Erweiterung der eigenen Denkarbeit einzusetzen. Achtung: Das kann ganz schön anstrengend sein. Dafür belohnen Sie sich mit dem, was die Forschung einen «Fortified Mind» nennt. Das ist ein gestärkter Geist, der technologische Hilfsmittel nutzt, ohne seine intellektuelle Souveränität aufzugeben. Das heisst nicht, dass Sie auf den Einsatz von KI verzichten müssen. Nicht jede Auslagerung von Denkarbeit an KI ist schädlich. Erkenntnisse zeigen, dass man KI gezielt für Routinetätigkeiten und formale Aufgaben wie Grammatikprüfungen, Formatierungen oder das reine Zusammentragen von Daten nutzen sollte. Dadurch werden im Arbeitsgedächtnis Kapazitäten frei, die intensiv für tiefgreifende, kognitive Prozesse genutzt werden können, wie etwa das Strukturieren von Argumenten, komplexe Analysen und kreative Synthesen.

Praxistipp

In meinen Workshops zeige ich, wie man die KI nicht als Rolltreppe, sondern als Laufband nutzt. Drei konkrete Beispiele:
1) Fragemaschine: Setzen Sie die KI als sokratischen Partner oder kognitiven Spiegel ein. Das meint, dass nicht Sie fragen und die KI antwortet, sondern umgekehrt: Lassen Sie sich von der KI befragen und herausfordern. So zwingt die KI Sie zum Nachdenken.
2) Hindernisse: Forscher sagen, Lernen sei effizienter, wenn es zu «metakognitiver Reibung» kommt. Nutzen Sie die KI also nicht, um Hindernisse zu entfernen, sondern setzen Sie sie im Gegenteil dazu ein, «wünschenswerte Erschwernisse» einzubauen.
3) Dreischritt-Prinzip: Versuchen Sie immer zuerst, eine Aufgabe vollständig autonom (ohne KI) zu durchdenken und zu bearbeiten. In einem zweiten Schritt ziehen Sie die KI zur Kritik und Erweiterung bei. Der dritte Schritt, die Synthese und alle Entscheidungen, soll dann wieder eine rein menschliche Leistung sein.

Basel, 07.04.2026, Matthias Zehnder mz@matthiaszehnder.ch

Nur dank Ihrer Unterstützung sind solche Texte möglich. Herzlichen Dank dafür!


Quellen:

Al-Abyadh, Muhtadi; Kalista Noor, Lorine; Fawzi, Ali (2025): Between Cognitive Augmentation and Atrophy: AI’s Role in Reshaping Human Intelligence, in: Interciencia, 2025, https://revistaeducacion.org/EDU/index.php/landing/index/uk4mF [07.04.2026].
Gerlich, Michael (2025): AI Tools in Society: Impacts on Cognitive Offloading and the Future of Critical Thinking, in: Societies, 15,1, 2025, S. 6, https://www.mdpi.com/2075-4698/15/1/6 [07.04.2026].
Kabashkin, Igor (2025): Cognitive Atrophy Paradox of AI–Human Interaction: From Cognitive Growth and Atrophy to Balance, in: Information, 16,11, 2025, S. 1009, https://www.mdpi.com/2078-2489/16/11/1009 [07.04.2026].
Klein, Christian R.; Klein, Reinhard (2025): The extended hollowed mind: why foundational knowledge is indispensable in the age of AI, in: Frontiers in Artificial Intelligence, 8, 2025, S. 1719019, https://www.frontiersin.org/articles/10.3389/frai.2025.1719019/full [07.04.2026].
Lodge, Jason M.; Loble, Leslie (2026): Artificial intelligence, cognitive offloading and implications for education, 2026, S. 1487662 Bytes, https://figshare.uts.edu.au/articles/report/Artificial_intelligence_cognitive_offloading_and_implications_for_education/31302475 [07.04.2026].

Steuern Sie selbst, statt sich treiben zu lassen. KI-Vorträge für Menschen, die ihre Zukunft selber gestalten wollen.

Schreiben Sie einen Kommentar

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre, wie deine Kommentardaten verarbeitet werden.