Warum KI uns zunächst klüger macht und dann dümmer
Rauchen ist ein einfaches Problem: Es gibt keinen gesunden Konsum von Rauch und Nikotin. Gesund ist nur der Verzicht auf Tabak und Zigaretten. Das heisst nicht, dass es einfach ist, davon loszukommen. Es gibt aber nur eine gesunde Lösung: nicht zu rauchen. Der Umgang mit Fett ist nicht so einfach. Klar: Fette Fritten, Speck und Eiscreme machen dick und krank. Dennoch kann der Mensch ohne Fett nicht überleben: Fett ist ein essenzieller Makronährstoff. Wenige richtige Fette essen ist gut, zu viel und falsches Fett zu essen ist schlecht. Es gibt deshalb keine einfache Lösung für den Umgang mit Fetten: Die Dosis macht das Gift. Mit der Künstlichen Intelligenz verhält es sich ganz ähnlich. Bis zu einem gewissen Punkt macht der Einsatz von KI uns kognitiv leistungsfähiger. Wie beim Fett gibt es aber einen Kipppunkt: Zu viel KI macht dumm. Experten warnen vor einem Verlust der eigenständigen Urteils- und Innovationskraft und vor drastischer Verkümmerung der Denkprozesse. Forscher bezeichnen diesen Zustand deshalb als kognitive Atrophie, als Schwund des Denkvermögens. Deshalb ist es entscheidend, den KI-Kipppunkt zu kennen und zu wissen, ob die KI uns noch klüger macht oder schon dümmer. Ich zeige Ihnen deshalb heute die vier Phasen der KI-Nutzung, wie man sie erkennt und wie Sie die KI so nutzen, dass ihr Gehirn dabei stark und eigenständig bleibt.
Was gibt 52×7? Wenn Sie reflexartig das Handy zücken und den Taschenrechner aktivieren, erleben Sie eine simple Folge von kognitiver Auslagerung: Die meisten Menschen rechnen nicht mehr selbst, sondern nutzen dafür den Taschenrechner. Warum soll man sich auch mit Zahlen quälen, wenn ein Tastendruck das Resultat ergibt? Unser kleines Rechenbeispiel liesse sich auch einfacher lösen. 52×7 – das entspricht der Anzahl Wochen und der Anzahl Tage im Jahr. 365 kann aber nicht die Antwort sein, weil 2×7 nicht auf 5 endet, sondern auf 4. Ich würde deshalb schätzen, dass 52×7 = 364 . Der Taschenrechner bestätigt das.
Das Auslagern von Rechnungsaufgaben an den Taschenrechner ist ein Beispiel für das, was Kognitionsforscher «Mental Offloading» bezeichnen. Ein anderes bekanntes Beispiel ist das Auslagern der Orientierungsfähigkeit an ein Navigationssystem. Dazu gibt es eine berühmte Studie der Neurologin Eleanor Maguire. Sie hat die Gehirne von Londoner Taxifahrern untersucht und konnte mittels Hirnscans strukturelle Veränderungen im Hippocampus feststellen, die durch die intensive räumliche Navigationsexpertise der Fahrer entstehen. Umgekehrt hatten Menschen, die Navigationssysteme nutzen, kleinere Hippocampus-Strukturen. Gleichzeitig erzielten sie schlechtere Leistungen bei räumlichen kognitiven Aufgaben und waren kaum mehr in der Lage, innere Karten der Umgebung zu bilden. Die Studien zeigen, dass das Gehirn sich neu strukturiert, wenn es Prozesse an externe Werkzeuge auslagert.
Der Hippocampus als Steckenpferd
Nun zucken Sie vielleicht mit den Schultern und sagen: Ich bin weder Mathematiker noch Taxichauffeur, mein Hippocampus ist nicht mein Steckenpferd. Seit Erfindung der Dampfmaschine benötigen wir weniger Muskeln beim Arbeiten. Der Mensch verändert sich halt und das ist auch gut so. Anders gesagt: Jeder Einsatz eines Werkzeugs verändert nicht nur die Arbeit, sondern auch den Menschen, der das Werkzeug benutzt.
Eine ganze Reihe von Forschungsresultaten zeigt jetzt aber: Die KI ist kein simples Werkzeug. KI hat das Zeug dazu, das ganze Denken zu verändern. Geräte wie der Taschenrechner, die Festplatte oder auch Google als Suchmaschine verändern vor allem die Speicherung und das prozedurale Verarbeiten von Informationen. Der Mensch denkt also nach wie vor selbst, kann aber auf externe Speicher zugreifen und die Resultate von Rechnungen anzeigen lassen.
Das «Cognitive Atrophy Paradox»
Künstliche Intelligenz betrifft das ganze Denken. Konkret geht es dabei um das Ziehen von Schlüssen, konzeptionelle Synthese und Abstraktion und das Lösen von Problemen. Wenn ich einen Taschenrechner nutze, muss ich das Problem um die Rechnung herum immer noch selbst lösen und die Lösungsschritte selbst kontrollieren. Eine KI dagegen kann den ganzen Prozess übernehmen, von der Problemanalyse über das Entwickeln eines Lösungswegs bis zum Ziehen von Schlüssen. Das ist nicht nur eine andere Schuhnummer, es ist eine ganze Schuhfabrik.
Zu diesem Befund kommen unabhängig voneinander mehrere Forschungsgruppen, darunter Al-Abyadh et al. (2025). Sie sprechen vom «Cognitive Atrophy Paradox» (CAP). Die KI macht uns zwar sehr viel leistungsfähiger, dabei verkümmern aber ausgerechnet die wichtigsten kognitiven Prozesse wie Organisation, Zusammenfassung und Argumentation. Ich nenne es das Rolltreppen-Phänomen: Wir sind zwar in der Lage, dank Rolltreppen mühelos die Ebenen in einem grossen Bahnhof zu wechseln. Mit der Zeit verkümmern dabei aber unsere Muskeln.
Die vier Phasen der Mensch-KI-Interaktion
Kognitionsforscher befürchten also, dass sich die Auswirkung von Taschenrechner und Navigationssystem auf das Gehirn bei der KI im grossen Massstab wiederholt. Nur sind dabei nicht nur das Kopfrechnen oder das räumliche Vorstellungsvermögen betroffen, sondern die ganzen sprachlichen, logischen und analytischen Zentren des Gehirns und damit das Denken überhaupt.
Der Informatiker Igor Kabashkin unterscheidet in seiner Forschung vier Phasen der Mensch-KI-Interaktion. Die vier Phasen beschreiben den schleichenden Wandel von der eigenständigen Denkleistung hin zur technologischen Abhängigkeit.
Phase 1: Denken ohne KI
In dieser Phase arbeitet das Gehirn (noch) autonom. Es erledigt die kognitiven Aktivitäten selbst, abgesehen vielleicht vom Rechnen oder dem Zugriff auf einen Speicher. Diese Menschen formulieren Probleme eigenständig, sammeln Informationen, fassen sie zusammen und überprüfen sie auf ihre Richtigkeit. Für das Gehirn ist jeder dieser Denk- und Lernzyklen ein kognitives Training, das die neuronalen Pfade für tieferes Verständnis und Erinnerungsvermögen stärkt. In dieser Phase verfügt der Mensch über maximale intellektuelle Unabhängigkeit.
Phase 2: Erweiterungsphase
Der Mensch beginnt damit, KI-Werkzeuge wie generative KI oder analytische Tools zu benutzen. Weil sein Gehirn noch fit und munter ist, nutzt es die Technik als Erweiterung und lagert vor allem Routineaufgaben und blosse Datenverarbeitung an die KI aus. Das stärkt die kognitive Kapazität des Nutzers. Entscheidend ist dabei, dass die konzeptionelle Kontrolle der Denkarbeit vollständig beim Menschen bleibt. Der Mensch profitiert beim Denken also von der Zusammenarbeit mit der KI, ohne dass die eigene Urteilskraft geschwächt wird. In dieser Phase verfügt der Mensch über maximale intellektuelle Leistungsfähigkeit.
Phase 3: Bypass-Phase
Der Mensch beginnt damit, eigene Denkprozesse zu überspringen und die KI als leistungssteigernden Bypass zu nutzen. Es beginnt vielleicht mit einem Notfall, erweist sich als angenehm und wird rasch zur Regel. Die Folge: Das Gehirn konstruiert Wissen nicht mehr selbst, sondern ruft es zunehmend ab. Es muss das, was es produziert, inhaltlich nicht mehr wirklich verstehen. Das Ziel besteht darin, möglichst rasch und effizient einen korrekten Output zu produzieren. Mit der Zeit nimmt die Selbstreflexion ab. Aus dem nützlichen Auslagern von Fleissarbeit wird eine kognitive Vermeidungshaltung. Der KI-Bypass stärkt nur den Output, schwächt aber die intellektuelle Leistung.
Phase 4: Abhängigkeitsphase
Eine andauernde, starke Beanspruchung der KI mündet schliesslich in vollständiger kognitiver Passivität. Die Menschen hören auf, die von der Maschine generierten Inhalte kritisch zu überprüfen, zu interpretieren oder nur schon geistig zu rekonstruieren. Gedanken werden zu Boxen, die ungeöffnet ausgespuckt werden. Der Mensch akzeptiert blind, was die KI produziert. Die KI wird zur unhinterfragten, gedanklichen Autorität. Weil der Verstand analytische Prozesse nicht mehr trainiert, verliert er die Fähigkeit, Probleme ohne technische Hilfsmittel eigenständig zu lösen. Am Ende ist der Mensch nur noch Vermittler zwischen dem Input und dem von der KI generierten Output. Neurobiologisch lässt sich das in einem messbaren Rückgang der frontalen Theta-Aktivität im Gehirn nachweisen. Es ist ein Anzeichen dafür, dass die kognitive Anstrengung und der Arbeitsspeicher bei der Aufgabenbewältigung drastisch reduziert werden.
Das also sind die vier Phasen nach Kabashkin vom eigenständigen Denken bis zur digitalen Demenz. Die Schwierigkeit ist, dass KI nicht per se dumm macht. Es gibt diese Phase 2 der Erweiterung, in der die KI uns kognitiv leistungsfähiger macht. Offenbar ist es auch bei der KI die Dosis, die das Gift macht. Wir müssen uns deshalb fragen: Wie können wir in dieser Phase 2 bleiben? Wie verhindern wir, dass wir die KI als Bypass nutzen und kognitiv abhängig werden?
Auf die Kontrolle kommt es an
Schauen wir uns diese zweite Phase etwas genauer an. In dieser Phase übernimmt die KI die Rolle eines kognitiven Assistenten. Die KI unterstützt und erweitert also die menschliche Denkleistung, ersetzt sie aber nicht. Forscher sprechen deshalb von einer synergetischen Zusammenarbeit, einer Synergie zwischen einem denkenden und urteilenden Menschen und einer Maschine, die ihm dient.
Absolut zentral ist dabei, dass der Mensch die Kontrolle behält. Die KI ist nur ein Assistent, der den Menschen unterstützt, die Datenverarbeitung übernimmt und zum Beispiel Kontrollfragen stellt. Die Forschung spricht von «nützlichem Offloading», wenn die Maschine Routineberechnungen und grundlegende Aufgaben übernimmt. Die konzeptionelle Kontrolle, die Interpretation und das eigentliche Verständnis bleiben weiterhin beim Menschen. Das ist das wichtigste Abgrenzungsmerkmal zu den späteren, problematischeren Phasen.
Die zentralen Warnsignale
Studien zeigen, dass diese Aufteilung der kognitiven Arbeit die Leistungsfähigkeit des menschlichen Denkens nicht beeinträchtigt, sondern im Gegenteil durch kluge Zusammenarbeit mit der KI erweitert. Die grosse Frage ist: Wie schaffen wir es, in dieser Phase zu bleiben und nicht abzugleiten in Phase 3 und 4?
Es gibt offenbar ein zentrales Warnsignal, auf das Sie achten können. Der Wirtschaftswissenschaftler Michael Gerlich spricht von einer «Zielverschiebung»: Wenn die effiziente Aufgabenerledigung wichtiger wird als das Verstehen der Aufgabe, sollten alle roten Warnlichter aufleuchten. Diese Zielverschiebung hat oft eine mentale Faulheit zur Folge: Der Output der KI wird unkritisch und ohne darüber nachzudenken akzeptiert.
Ein weiteres Symptom für das Abgleiten ist die Kompetenz-Illusion: Nutzer können nicht mehr unterscheiden zwischen eigenen Fähigkeiten und KI-Leistungen. Sie verwechseln den reibungslosen Zugang zu KI-Informationen mit echten eigenen Fähigkeiten. Die Folge: Sie überschätzen ihr eigenes Wissen und Können gnadenlos. Klein und Klein (2025) sprechen deshalb auch vom «extended hollowed mind», vom Geist, der ausgehöhlt wird. Eine schreckliche Vorstellung.
Diese Entwicklung ist übrigens messbar. Als Messgrösse schlägt Igor Kabashkin einen Cognitive Sustainability Index (CSI) vor. Der Index misst die Fähigkeiten in fünf Bereichen: Selbstständiges Denken, kritische Selbstüberprüfung, Kreativität, Delegation an die KI und Abhängigkeit von der KI. Fällt der CSI unter den Wert von 0,55, deutet das auf einen gefährlichen Verlust der analytischen Autonomie hin. Ich habe Ihnen einen kleinen Test entwickelt, mit dem Sie feststellen können, in welcher Phase Sie sich mit Ihrer KI-Nutzung befinden.
Wie können wir dieses Abgleiten verhindern und die geistige Autonomie aufrechterhalten? Die Forschung benennt dafür fünf Punkte:
1) Schwierigkeiten einbauen
Statt KI-Systeme nur für das Beseitigen von Widerständen und Schwierigkeiten zu nutzen, sollten Denkprozesse immer «kognitive Reibung» erzeugen. Die Forschung spricht dabei von «desirable difficulties», von erwünschten Schwierigkeiten. Wer öfter mal geistig Hanteln hebt, zwingt sein Gehirn dazu, analytische Prozesse zu üben und stärkt es dabei.
2) Das Sokrates-Prinzip
Nutzen Sie die KI nicht nur als allwissendes Orakel, sondern drehen Sie den Spiess um: Lassen Sie sich von der KI befragen. Weisen Sie der KI zum Beispiel die Rolle eines Anfängers zu, dem Sie ein Thema erklären müssen. Wenn die KI Rückfragen stellt, zwingt Sie das dazu, Sachverhalte aktiv zu durchdenken und zu erklären. Das löst den sogenannten Protégé-Effekt aus und fördert echte Erinnerungsbildung.
3) Die 60-Sekunden-Regel
Bevor Sie sich mit einer Frage oder einem Problem an die KI wenden, sollten Sie es immer zuerst selbst versuchen. Ein einfaches Prinzip dabei ist die 60-Sekunden-Regel: Zwingen Sie sich vor jedem Griff zur KI zu einer 60 Sekunden langen Pause, in der sie selbst über das Problem nachdenken und eine Lösung zu formulieren versuchen.
4) Pflicht zur Begründung
Wie verhindern Sie blindes Vertrauen in die KI? Indem Sie sich selbst und die KI dazu zwingen, jede Antwort zu begründen. Sie sollten jederzeit in der Lage sein, zu erklären, warum Sie dieses Argument oder jene Antwort übernehmen. Fordern Sie auch die KI auf, sich zu erklären. Dazu gehört auch das Prüfen aller Quellen. Schon Skepsis im Umgang mit der KI ist ein wirkungsvolles Mittel gegen blindes Vertrauen und blossen Output-Konsum.
5) Denken ohne Hilfsmittel
Wer immer die Rolltreppe benutzt, muss sich nicht wundern, wenn die Muskeln schwinden. Nehmen Sie deshalb immer mal wieder die normale Treppe. Übertragen auf die KI heisst das: Denken und arbeiten Sie immer mal wieder ohne KI. Testen Sie sich, ob Sie es noch ohne Hilfsmittel schaffen. Sie werden dabei auch merken: Selber denken mag anstrengend sein, aber es ist auch befriedigend. Und befreiend.
Ohne Fett kann der Mensch nicht überleben. Die richtigen Fette in der richtigen Menge zu sich zu nehmen, das ist die grosse Herausforderung. Ohne KI kann der Mensch zwar überleben, aber bald nicht mehr arbeiten. Das Leistungsniveau ist gestiegen. Wer keine KI einsetzt, wird von der geistigen Rolltreppe bald überrollt. Die Herausforderung besteht darin, die Rolltreppe klug zu nutzen und dennoch fit und stark zu bleiben oder die KI sogar als Laufband einzusetzen statt als Rolltreppe.
Wer seinen Gehirnmuskel nicht trainiert, verliert nicht nur das, was ihn als Menschen ausmacht, er wird auch obsolet. Denken ohne Gehirn schafft die KI spielend. Lassen Sie Ihrem Gehirn deshalb keine Ruhe. Geben Sie sich nicht mit der Rolltreppe zufrieden, klettern Sie selbst jede verfügbare geistige Treppe hoch. Egal, ob schnell oder langsam, geradlinig oder um die Ecke – Hauptsache: Sie denken selbst!
Basel, 10.04.2026, Matthias Zehnder mz@matthiaszehnder.ch
Bleiben Sie auf dem Laufenden:
Hier den Wochenkommentar abonnieren.
- Hinweis auf den neuen Wochenkommentar
- Ein aktueller Sachbuchtipp
- Ein Roman-Tipp
- Das neue Fragebogeninterview
Nur dank Ihrer Unterstützung ist der Wochenkommentar möglich. Herzlichen Dank dafür!
Lieber hören als lesen?
Quellen:
Al-Abyadh, Muhtadi; Kalista Noor, Lorine; Fawzi, Ali (2025): Between Cognitive Augmentation and Atrophy: AI’s Role in Reshaping Human Intelligence, in: Interciencia, 2025, https://revistaeducacion.org/EDU/index.php/landing/index/uk4mF [07.04.2026].
Alkam, Ruba Saleh; Alsawalqa, Rula Odeh; Alreesi, Roqaya (2026): The moderating role of academic integrity in the relationship between artificial intelligence and critical thinking among graduate students in Jordan, in: Frontiers in Education, 11, 2026, S. 1776308, https://www.frontiersin.org/articles/10.3389/feduc.2026.1776308/full [10.04.2026].
Blitz, Marc Jonathan (2021): The Law and Ethics of Freedom of Thought, Volume 1: Neuroscience, Autonomy, and Individual Rights, Cham 2021 Palgrave Studies in Law, Neuroscience, and Human Behavior Ser.
Carter, J. Adam (2020): Intellectual autonomy, epistemic dependence and cognitive enhancement, in: Synthese, 197,7, 2020, S. 2937–2961, http://link.springer.com/10.1007/s11229-017-1549-y [10.04.2026].
Deng, Zihao; Deng, Zhaohua (2025): Becoming a cognitive miser? Antecedents and consequences of addictive ChatGPT use, in: Social Science & Medicine, 383, 2025, S. 118467, https://linkinghub.elsevier.com/retrieve/pii/S0277953625007981 [10.04.2026].
Gerlich, Michael (2025): AI Tools in Society: Impacts on Cognitive Offloading and the Future of Critical Thinking, in: Societies, 15,1, 2025, S. 6, https://www.mdpi.com/2075-4698/15/1/6 [07.04.2026].
Grinschgl, Sandra; Neubauer, Aljoscha C. (2022): Supporting Cognition With Modern Technology: Distributed Cognition Today and in an AI-Enhanced Future, in: Frontiers in Artificial Intelligence, 5, 2022, S. 908261, https://www.frontiersin.org/articles/10.3389/frai.2022.908261/full [10.04.2026].
Kabashkin, Igor (2025): Cognitive Atrophy Paradox of AI–Human Interaction: From Cognitive Growth and Atrophy to Balance, in: Information, 16,11, 2025, S. 1009, https://www.mdpi.com/2078-2489/16/11/1009 [07.04.2026].
Kindlinger, Marcus; Abs, Hermann Josef (2025): Entwicklung eines KI-Kompetenzprofils aus der Perspektive der politischen Bildung, in: PrEval Studie, 2025, S. 2025/02, https://www.prif.org/publikationen/publikationssuche/publikation/entwicklung-eines-ki-kompetenzprofils-aus-der-perspektive-der-politischen-bildung [10.04.2026].
Klein, Christian R.; Klein, Reinhard (2025): The extended hollowed mind: why foundational knowledge is indispensable in the age of AI, in: Frontiers in Artificial Intelligence, 8, 2025, S. 1719019, https://www.frontiersin.org/articles/10.3389/frai.2025.1719019/full [07.04.2026].
Lee, Hao-Ping (Hank); Sarkar, Advait; Tankelevitch, Lev; Drosos, Ian; Rintel, Sean; Banks, Richard; Wilson, Nicholas (2025): The Impact of Generative AI on Critical Thinking: Self-Reported Reductions in Cognitive Effort and Confidence Effects From a Survey of Knowledge Workers, in: Proceedings of the 2025 CHI Conference on Human Factors in Computing Systems, Yokohama Japan 2025, S. 1–22, https://dl.acm.org/doi/10.1145/3706598.3713778 [10.04.2026].
Lodge, Jason M.; Loble, Leslie (2026): Artificial intelligence, cognitive offloading and implications for education, 2026, S. 1487662 Bytes, https://figshare.uts.edu.au/articles/report/Artificial_intelligence_cognitive_offloading_and_implications_for_education/31302475 [07.04.2026].
Maguire, Eleanor A.; Gadian, David G.; Johnsrude, Ingrid S.; Good, Catriona D.; Ashburner, John; Frackowiak, Richard S. J.; Frith, Christopher D. (2000): Navigation-related structural change in the hippocampi of taxi drivers, in: Proceedings of the National Academy of Sciences, 97,8, 2000, S. 4398–4403, https://pnas.org/doi/full/10.1073/pnas.070039597 [10.04.2026].
Shalu; Verma, Nidhi; Dev, Kapil; Bhardwaj, Aradhana Balodi; Kumar, Krishan (2026): The Cognitive Cost of AI: How AI Anxiety and Attitudes Influence Decision Fatigue in Daily Technology Use, in: Annals of Neurosciences, 33,1, 2026, S. 73–84, https://journals.sagepub.com/doi/10.1177/09727531251359872 [10.04.2026].
Ein Kommentar zu "Warum KI uns zunächst klüger macht und dann dümmer"
Habe das erste mal den Wochenkommentar vorlesen lassen. Es spricht nicht KI sondern M. Zehnder. Tönt wie früher bei DRS2. Fehlt nur noch Klassik zuvor und danach. Aber: Wie total bequem. Lesen ausgelagert. Liegend konsumiert….
Der Mensch wird bequem. Auch ich. Als ab einer bestimmten Klasse Taschenrechner erlaubt waren, rechnete bei uns niemand mehr mit dem Kopf. Die Kids können schon lange nicht mehr rechnen. Und jetzt heute: Heute können sie nicht mehr schreiben. Das „phonetische“ Schreiben (Vorreiter war da die Rudolf-Steiner-Schule, und wie….) greift nun auch in Staatsschulen um sich. Und schleift sich ein. Kaum jemand kann heute noch fehlerfrei schreiben. Für was noch? Die KI richtet es ja eh. Ich finde es erschreckend, andere sagen gut so – dann wird in den Schulen Raum für wirklich Wichtiges im Leben frei. (Jetzt muss nur noch definiert werden, was wichtig ist – für jeden wohl was anderes….). So oder so: Ich schreibe IMMER selbst. Obwohl ich faul bin. Aber der Treiber dafür ist dass es mir Spass macht. Und origineller daherkommt. Denn Gleichschaltung (Tendenzen zu staatl. und pol. Grossgebilden a la EU sind en vogue) sind der ANFANG vom ENDE.
Für Alles. Bei Allem. Allumfassend. Amen.