KI-Denkfehler #39: «Dank KI brauche ich keine Medien mehr.»
Das glauben offenbar viele Menschen. Die KI-Dienste absorbieren immer mehr Aufmerksamkeit und überweisen kaum mehr Besucher an Informationsquellen. Immer mehr Menschen begnügen sich mit KI-Zusammenfassungen oder den Antworten der Chatbots. Das spüren nicht nur Medien, sondern auch die Onlineenzyklopädie Wikipedia: Sie misst immer weniger menschliche Besucher, dafür mehr Traffic durch KI-Dienste.
Die Suchmaschine Google wird zur Antwortmaschine und überweist nur noch zwei von fünf Besuchern an eine Website. Bei KI-Diensten ist der Anteil noch höher: ChatGPT und Co. überweisen praktisch keine Besucher mehr an ihre Quellen. Schuld daran sind nicht bloss die Anbieter. Studien (etwa Melumad, Yun 2025) deuten darauf hin, dass Nutzer die Sofort-Information als Weg des geringsten Aufwands wählen: KI-Antworten und -Zusammenfassungen bieten sofortige Befriedigung des Informationsbedürfnisses. Kritische Quellenprüfung dagegen ist aufwändig und eher frustrierend.
1. Apekt Das Symptom: Nutzer vertrauen der KI blind
Journalistinnen und Journalisten lernen, Informationen immer zu belegen. Sie zitieren Quellen, verweisen auf Studien und Forschungsresultate und diskutieren die Zuverlässigkeit der Angaben. Das Publikum scheint das nicht wirklich zu mögen: Es vertraut der KI lieber blind. Studien wie Bertoncini et al. 2025 zeigen, dass Nutzer von KI-Diensten automatisierten Auskünften übermässig viel Vertrauen schenken. Die Studie spricht deshalb sogar von einem «Automation Bias». Selbst in komplexen und widersprüchlichen Situationen scheinen die Nutzer automatisierten Antworten übermässig viel Vertrauen zu schenken. Selbst in akademischen Simulationen folgten 78 % der Probanden blind den KI-generierten Entscheidungen, ohne diese kritisch zu hinterfragen.
Viele Nutzer vertrauen also den KI-Antworten gerade weil sie automatisch generiert wurden. Sie setzen die KI nicht als Mittler-Technik ein, sondern nutzen sie wie eine Primärquelle. Der übermässig selbstbewusste Ton der KI-Dienste verfängt: Ihre Antworten werden nicht in Frage gestellt. Die Nutzer vertrauen also der KI, nicht obwohl die Belege fehlen, sondern gerade weil die Belege fehlen.
2. Apekt Der Mechanismus: Lernen durch Entdecken wird ausgehebelt
Nun könnte man sagen, dass das alles keine Rolle spielt, solange die Antworten der KI zutreffen. Doch Studien wie Melumad, Yun 2025 zeigen, dass es sehr wohl einen Unterschied macht, ob ein Mensch eine Antwort selbst herausfindet oder ob er die Antwort von der KI serviert kriegt. In einer Studie mit über 10’000 Teilnehmern konnten sie zeigen, dass KI-generierte Synthesen zu seichterem Wissen führt als die traditionelle Websuche. Der Grund dafür ist, dass die KI den mühsamen Prozess des Entdeckens, Navigierens und Destillierens einzelner Quellen obsolet macht. Genau dieser Synthese-Prozess führt aber zu einem nachhaltigen Lerneffekt.
Die Folge: Nutzer, die sich auf KI-Antworten verlassen, entwickeln ein geringeres Verständnis für die Zusammenhänge. Melumad, Yun 2025 konnten zeigen, dass der Wissenszuwachs auch dann geringer ist, wenn die bereitgestellten Fakten identisch sind. Die Studie weist darauf hin, dass es mit der Zeit zu einem «Deskilling» der Nutzer kommt: Ihre Antworten sind weniger hilfreich, weniger originell und weniger faktisch fundiert als Antworten von Menschen, die manuell recherchiert hatten. Die schnellen Antworten der KI hebeln also das Lernen aus.
3. Apekt Die Konsequenz: Kompetenz und kritisches Denken erodieren
Wer sich öfter mit KI-Antworten begnügt, verliert mit der Zeit die Fähigkeit, Medien kritisch und kompetent zu nutzen und sich mit den Quellen auseinanderzusetzen. So berichten Alhur et al. (2025) von einem starken Rückgang grundlegender Fähigkeiten wie wissenschaftliches Schreiben und kritisches Denken. KI schadet also dem eigenen Denkvermögen.
Je stärker man der KI vertraut, desto schwächer wird die Fähigkeit, selbst kritisch zu denken. Man könnte auch von einer sich verstärkenden Abhängigkeit von der KI sprechen. Wer sich bei seiner Arbeit ganz auf die KI verlässt, wird es kaum mehr schaffen, Neues zu kreieren und zu publizieren.
Fazit
Viele Anwender von KI nutzen tatsächlich nur noch die KI und konsultieren keine Informationsquellen mehr. Das führt zu schlechteren Lernergebnissen und schmälert das kritische Denkvermögen. Diese Art der unkritischen KI-Nutzung schadet aber nicht nur den Menschen, sondern auch der KI. Sie lebt ja von den Inhalten, die Medien produzieren. Wer Medien durch KI ersetzt, sägt am Ast, auf dem die KI sitzt.
Praxistipp
Fordern Sie die KI immer auf, die Quellen für eine Antwort oder eine Aussage zu nennen. Fragen Sie nach Web-Links oder, bei wissenschaftlichen Quellen, nach Arxiv-IDs oder DOI-Links. Rufen Sie die Quelldaten auf und prüfen Sie die Informationen. Damit schaffen Sie gleich einen dreifachen Nutzen: Sie können mit der Zeit die Antworten der KI besser einschätzen. Sie lernen nachhaltiger, weil Sie sich aktiv mit den Quellen auseinandersetzen. Und Sie sorgen, wenigstens ein kleines bisschen, dafür, dass das Informationsbiotop im Internet erhalten bleibt.
Basel, 14.04.2026, Matthias Zehnder mz@matthiaszehnder.ch
Nur dank Ihrer Unterstützung sind solche Texte möglich. Herzlichen Dank dafür!
Quellen:
Alhur, Anas Ali; Khlaif, Zuheir N; Hamamra, Bilal; Hussein, Elham (2025): Paradox of AI in Higher Education: Qualitative Inquiry Into AI Dependency Among Educators in Palestine, in: JMIR Medical Education, 11, 2025, S. e74947–e74947, https://mededu.jmir.org/2025/1/e74947 [14.04.2026].
Bertoncini, Ana Luize; Matsushita, Raul; Da Silva, Sergio (2025): AI, Ethics, and Cognitive Bias: An LLM-Based Synthetic Simulation for Education and Research, in: AI in Education, 1,1, 2025, S. 3, https://www.mdpi.com/3042-8130/1/1/3 [14.04.2026].
deutschlandfunk.de (2026): Wikipedia: Warum KI-Bots der freien Enzyklopädie schaden, in: Deutschlandfunk, 2026, https://www.deutschlandfunk.de/ki-bots-bedrohen-wikipedia-100.html [14.04.2026].
Ibrahim, Lujain; Collins, Katherine M.; Kim, Sunnie S. Y.; Reuel, Anka; Lamparth, Max; Feng, Kevin; Ahmad, Lama; Soni, Prajna; Kattan, Alia El; Stein, Merlin; Swaroop, Siddharth; Sucholutsky, Ilia; Strait, Andrew; Liao, Q. Vera; Bhatt, Umang (2025): Measuring and mitigating overreliance is necessary for building human-compatible AI, 2025, http://arxiv.org/abs/2509.08010 [14.04.2026].
Melumad, Shiri; Yun, Jin Ho (2025): Experimental evidence of the effects of large language models versus web search on depth of learning, in: PNAS Nexus, 4,10, 2025, S. pgaf316, https://academic.oup.com/pnasnexus/article/doi/10.1093/pnasnexus/pgaf316/8303888 [14.04.2026].
