Das KI-Paradox in der Ausbildung

Publiziert am 11. August 2023 von Matthias Zehnder

Google Bard und ChatGPT machen gerade schriftliche Hausarbeiten obsolet. Schulen und Universitäten fragen sich deshalb, wie Hausarbeiten, Matura- oder Bachelorarbeiten in Zukunft noch funktionieren können. Eine Schwierigkeit dabei ist das hohe Tempo: Noch nie hat sich eine neue Technologie so schnell verbreitet. Für Lehrpersonen ist es wichtig, nicht nur um die KI zu wissen, sondern auch zu verstehen, wie die KI funktioniert, was sie kann und vor allem wo ihre Grenzen liegen. Genau das vermittle ich Lehrpersonen im Rahmen von Workshops und Seminaren an Schulen. Dabei ist mir in den letzten Wochen ein Problem aufgefallen, das ich das «KI-Paradox» nennen möchte. Dabei geht es nicht um die offensichtlichen Probleme bei den Hausarbeiten. Es geht um das grundsätzliche Problem, dass die KI den Menschen genau jene Arbeiten abnimmt, die sie beherrschen müssen, damit die Menschen die KI beherrschen können. Ich glaube, dass dieses Paradox die wirklich grosse Herausforderung in der Bildung und Ausbildung sein wird. Mehr über das KI-Paradox erfahren Sie in meinem Wochenkommentar.

Wenn Sie Google Bard oder ChatGPT schon einmal getestet haben, dann wissen Sie, wie eloquent diese Dienste sind: Wenn Sie die richtigen Befehle eingeben, generieren die Programme in kürzester Zeit Texte von erstaunlich hoher Qualität. Beide Dienste beherrschen unterschiedlichste Textsorten und generieren auf Knopfdruck alles, vom Aufsatz über Bullet Points für eine Präsentation bis zum Nachruf. Für Schulen und Universitäten wird das zur Herausforderung: Unser pädagogisches System ist darauf ausgerichtet, Wissen und Fertigkeiten von Schülern und Studenten anhand von Texten zu prüfen: Schüler und Studenten belegen mit selbstständig erstellten Hausarbeiten, der Maturaarbeit, Seminararbeiten und der Masterarbeit, dass sie ein Thema beherrschen.

Etwas kürzer gesagt: Wir neigen dazu, die Eloquenz eines Menschen als Massstab für seine Bildung oder Ausbildung zu nehmen. Je eloquenter jemand über ein Thema sprechen oder schreiben kann, desto besser gebildet muss er sein. Das führt zu einem Phänomen, das ich den «Köpenick-Effekt» nenne: Menschen neigen dazu, auf eine schöne Oberfläche hereinzufallen. Das heisst: Sie lassen sich gerne von schönen Worten bluffen. KI-Systeme bedienen diesen Köpenick-Effekt in zweierlei Hinsicht: Zum einen verhelfen sie auch dem unbegabtesten Schreiber zum perfekten Text. Sie helfen damit dem Schreiber, zu bluffen. Zum anderen lassen wir alle uns von der KI bluffen: Die grosse Eloquenz der Systeme täuscht uns darüber hinweg, dass ChatGPT und Co. keine Ahnung davon haben, was sie sagen.

Plappernde Papageien

Bei den Diensten handelt es sich um Sprachmodelle. Sie erfassen und durchdringen die Zeichenebene der Sprache perfekt. Sie haben alle Wörter und ihre Wahrscheinlichkeiten gespeichert und kennen die Grammatik der Sprache. Doch sie kennen eben nur die Zeichenebene. Sprache hat aber immer zwei Seiten: Einem innersprachlichen Zeichen steht eine aussersprachliche Bedeutung gegenüber. Wenn wir ein Wort wie «Baum» verwenden, dann gehen wir von unserem Wissen über Bäume, von unseren Erfahrungen, Erlebnissen und Gefühlen aus. Wir haben ein Konzept von dem, was wir «Baum» nennen: Wir haben Erinnerungen an Bäume. Wir sind schon auf Bäume geklettert und haben reife Kirschen genascht. Wir kennen das Gefühl, den Kopf in den Nacken zu legen, an einem alten Baum hochzuschauen und zu sehen, wie seine Krone in den Himmel wächst. All dies ist der KI nicht zugänglich. Die KI reproduziert nur die Zeichenebene. Sie verhält sich also wie ein Papagei. Ein Papagei, der extrem schnell und unglaublich eloquent plappern kann, aber letztlich keine Ahnung davon hat, was er da sagt.

Weil wir gewohnt sind, von der Qualität der sprachlichen Oberfläche auf den Inhalt zu schliessen, lassen wir uns von den KI-Papageien gerne bluffen. Das ist der Köpenick-Effekt. Im Kontext von Schule und Universität kommt noch ein weiterer Punkt hinzu: Im Gegensatz zu vielen inhaltlichen Aspekten eines Textes ist seine Oberfläche schwarz auf weiss gegeben. Sprachliche Fehler sind zählbar, die Qualität ist messbar, die Benotung ist nachweisbar. Ein nicht zu unterschätzender Aspekt in einer Zeit, in der Eltern gerne mit dem Anwalt aufkreuzen, wenn ihr Kind schlechte Noten nach Hause bringt. Das führt zu dem, was ich den «Strassenlaternen-Effekt» nenne. Der Begriff geht auf eine Geschichte zurück, die ich in Paul Watzlawicks wunderbarem Buch «Anleitung zum Unglücklichsein» gelesen habe.

Der Strassenlaternen-Effekt

Watzlawick erzählt die Geschichte so: «Unter einer Strassenlaterne steht ein Betrunkener und sucht und sucht. Ein Polizist kommt daher, fragt ihn, was er verloren habe, und der Mann antwortet: ‹Meinen Schlüssel.› Nun suchen beide. Schliesslich will der Polizist wissen, ob der Mann sicher ist, den Schlüssel gerade hier verloren zu haben, und jener antwortet: ‹Nein, nicht hier, sondern dort hinten – aber dort ist es viel zu finster.›» Wir neigen dazu, nicht da zu suchen, wo es Sinn macht, sondern da, wo es Licht hat. Wir neigen gerade in der Schule und an der Universität dazu, das Messbare zu messen und nicht das Wichtige zu bewerten. Die generative KI unterläuft diese Art der Leistungsüberprüfung brutal. Schule und Universitäten sind also herausgefordert.

Die Konzentration auf die Zeichenebene führt dazu, dass die generative KI auch schwerwiegende Nachteile hat. Weil sie keine Ahnung davon haben, was sie sagen, neigen die Sprachmodelle dazu, zu halluzinieren. Egal welche Aufgabe man der KI gibt, sie produziert einen perfekt aussehenden Text. Perfekt ist der Text aber nur oberflächlich, inhaltlich kann er völliger Blödsinn sein. Auch gestandene Profis können auf das Halluzinieren von ChatGPT hereinfallen. Legendär ist der Fall des New Yorker Anwalts Steven A. Schwartz. Der Anwalt hatte für einen Fall im Federal District Court von Manhattan einen Schriftsatz vorbereitet, in dem er sich auf ein halbes Dutzend Präzedenzfälle berief. Der Schriftsatz war perfekt und mit Fallnummern, Orten und Daten versehen. Nur: Keiner der Fälle liess sich finden. ChatGPT hatte die Fälle alle erfunden und Schwarzt hatte es versäumt, die Texte, die er mit der KI erstellt hatte, einer Gegenprüfung zu unterziehen.

Der Mensch muss das Handwerk beherrschen

Rechtsanwalt Schwartz hat auf schmerzhafte Weise gelernt, dass man ChatGPT und Google Bard nicht blind vertrauen kann. Man muss die Ergebnisse der KI überprüfen. Das setzt aber voraus, dass die Nutzerinnen und Nutzer der KI dazu auch in der Lage sind. Anders gesagt: Es sollten nur Menschen die KI nutzen, die die Arbeit der KI auch selbst ausführen könnten. Menschen, die in der Lage sind, die Verantwortung für die Ergebnisse der KI-Arbeit zu übernehmen. Ein KI-Übersetzungsdienst beispielsweise vereinfacht die Übersetzungsarbeit enorm, – wer aber die Zielsprache nicht beherrscht und sich also blind auf die Arbeit des Tools verlassen muss, sollte die KI nicht nutzen. Die Leistungen der generativen KI sind wirklich erstaunlich, – aber letztlich trägt immer der Mensch an der Maschine die Verantwortung für die Arbeit. Und die kann er nur übernehmen, wenn er das Handwerk selbst versteht.

Und genau hier liegt das KI-Paradox: Wer eine KI einsetzen will, sollte die Arbeit, die ihm die KI abnimmt, selbst beherrschen. Er sollte die Arbeit sogar besser beherrschen als die KI, weil er die Arbeit der KI kontrollieren muss. Die grosse Frage in der Ausbildung ist nun, wie Lernende die Arbeit lernen sollen, wenn sie die Arbeit von der KI erledigen lassen. Ein gutes Beispiel sind die Assistenzsysteme im Auto. Die funktionieren heute wirklich gut. Vor allem Elektroautos halten auf der Autobahn perfekt die Spur, sie halten den nötigen Abstand zum vorderen Wagen und bremsen, wenn es nötig ist. Ein Auto mit Assistenzsystemen zu fahren ist viel weniger anstrengend als ein Auto ohne Computerhilfe. Doch was passiert, wenn es brenzlig wird? Wenn die Mittellinie im Schnee nicht mehr zu sehen ist oder eine Baustelle mit verengter Fahrbahn ein heikles Manöver erfordert? Das Auto schlägt Alarm und übergibt die Kontrolle dem menschlichen Fahrer. Die Frage ist nur, wie Autofahrerinnen und Autofahrer in Zukunft die Fertigkeiten lernen und trainieren wollen, die sie für schwierige Situationen brauchen, wenn die KI ihnen die einfachen Situationen abnimmt.

Durch die Pflicht zur Kür

Genau das ist das KI-Paradox. Keine Frage: Die KI wird uns sehr nützlich sein und uns unterstützen können. Weil sie uns am Arbeitsplatz, im Auto, beim Schreiben und im Unterricht die einfachen Aufgaben abnimmt, bleiben uns nur noch die schwierigen Aufgaben. Und das bedeutet: Die KI wird dazu führen, dass die Anforderungen an Berufsleute, Autofahrer, Programmierer und Kreative nicht sinken, sondern steigen. Nehmen wir die KI-assistierte Auswertung von Röntgenbildern in der Medizin: Die klaren Fälle findet die KI blitzschnell. Zweifelsfälle und heikle Diagnosen überlässt die KI aber der Fachfrau am Gerät. Die Frage ist nur, wie diese Fachfrau in Zukunft Erfahrungen in ihrem Fach sammeln will, wenn die KI die einfachen Fälle schon gelöst hat.

Die KI wird in vielen Berufen und Tätigkeiten dafür sorgen, dass Routinearbeiten, also die «Pflicht», wegfallen. Die Arbeit wird sich künftig auf das konzentrieren, was nur menschliche Experten leisten können, also auf die «Kür». Das gilt auf allen Ebenen, auch in der Schule und im Studium. Das Problem ist, dass wir alle nur in der Lage sind, diese «Kür» der Arbeit zu leisten, wenn wir vorher die «Pflicht» intensiv trainiert haben. Also das, was die KI besser beherrscht als wir Menschen. Das ist das KI-Paradox.

Das grosse Problem der Motivation

Für Schulen und Universitäten ist die KI daher nicht nur eine Herausforderung in Bezug auf schriftliche Arbeiten. Noch grösser dürfte das Problem sein, dass Lehrpersonen und Professoren ihre Schüler und Studenten motivieren müssen, in genau jenen Fertigkeiten Meisterschaft zu erwerben, die ihnen die KI so verlockend leicht abnehmen kann. Ohne Meisterschaft in diesen Pflicht-Skills werden sie aber nicht in der Lage sein, die Kür der Arbeit so auszuführen, dass sie die KI in Zukunft kontrollieren können. Bisher hatten die Schulen das Problem nur beim Rechnen: Warum soll ich Kopfrechnen lernen, wenn es doch Taschenrechner gibt? Die Antwort ist klar: Nur wer eine Vorstellung von Zahlen hat und ein Grundverständnis von Mathematik, kann die Rechner richtig anwenden. Die KI weitet dieses Problem auf alle Fächer aus. Na ja, vielleicht ausser Sport und Musik.

Das KI-Paradox wird zur grossen Herausforderung für Professorinnen, Professoren und Lehrpersonen werden. Unterrichtende werden diese Herausforderung nur meistern können, wenn sie selbst die KI verstehen. Wenn sie also wissen, wie die Systeme funktionieren. Wenn sie ihre Möglichkeiten und vor allem ihre Grenzen kennen. Wenn sie den Schülern und Studenten diese Grenzen aufzeigen und ihnen damit beweisen können, wie wichtig es auch im KI-Zeitalter ist, zu lernen, zu büffeln und zu üben. Das grosse Problem dabei ist die unglaubliche Geschwindigkeit: Noch nie hat sich eine neue Technologie so rasch verbreitet. Deshalb rede ich derzeit mit vielen Unterrichtenden über den Köpenick-Effekt und Watzlawicks Strassenlaternen – und deshalb ist mir das KI-Paradox aufgefallen, das ich heute mit Ihnen geteilt habe.

Basel, 11. August 2023, Matthias Zehnder mz@matthiaszehnder.ch

PS: Nicht vergessen – Wochenkommentar abonnieren. Dann erhalten Sie jeden Freitag meinen Newsletter mit dem Hinweis auf den neuen Kommentar, einen Sachbuchtipp, einen Tipp für einen guten Roman, das aktuelle Fragebogeninterview und mein persönlicher Tipp für ein gutes, digitales Leben. Einfach hier klicken. Und wenn Sie den Wochenkommentar unterstützen möchten, finden Sie hier ein Formular, über das Sie spenden können.

PPS: Wenn Sie den Wochenkommentar nur hören möchten, gibt es auch eine Audioversion. Hier der Link auf die Apple-Podcast Seite oder direkt auf die Episode:


Quellen

Bild: © KEYSTONE/DPA/Sven Hoppe

Sam Altman, CEO von OpenAI und Erfinder der KI-Software ChatGPT, während einer Podiumsdiskussion an der Technischen Universität München. Mai 2023.

Bollmann, Reto (2023): Uni-Bern-Student erhält Verweis für Gebrauch von ChatGPT. In: 20 Minuten. [https://www.20min.ch/story/uni-bern-student-erhaelt-verweis-fuer-gebrauch-von-chatgpt-247514161441; 11.8.2023].

Cohen, Olivia (2023): ChatGPT on Campus: Law Schools Wrestle With Emerging AI Tools. In: Bloomberg Law. [https://news.bloomberglaw.com/business-and-practice/chatgpt-on-campus-law-schools-wrestle-with-emerging-ai-tools; 11.8.2023].

Mok, Aaron (2023): Professors want to ‘ChatGPT-proof’ assignments, and are returning to paper exams and requesting editing history to curb AI cheating. In: Yahoo. [https://sports.yahoo.com/professors-want-chatgpt-proof-assignments-193241271.html?guce_referrer=aHR0cHM6Ly9uZXdzLmdvb2dsZS5jb20v; 11.8.2023].

Vaidhyanathan, Siva (2023): My students are using AI to cheat. Here’s why it’s a teachable moment. In: The Guardian. [https://www.theguardian.com/technology/2023/may/18/ai-cheating-teaching-chatgpt-students-college-university; 11.8.2023].

Watzlawick, Paul (2021): Anleitung zum Unglücklichsein. Piper.

Weinheimer, Paul (2023): Schummeln mit ChatGPT: “Meine Strategie War, Die Mitleidsschiene Zu Fahren”. In: ZEIT Campus. [https://www.zeit.de/campus/2023-07/chatgpt-schummeln-journalist-student-erwischt; 11.8.2023].

Weiser, Benjamin (2023a): Here’s What Happens When Your Lawyer Uses ChatGPT. In: The New York Times. [https://www.nytimes.com/2023/05/27/nyregion/avianca-airline-lawsuit-chatgpt.html; 11.8.2023].

Weiser, Benjamin (2023b): The ChatGPT Lawyer Explains Himself. In: The New York Times. [https://www.nytimes.com/2023/06/08/nyregion/lawyer-chatgpt-sanctions.html; 11.8.2023].

4 Kommentare zu "Das KI-Paradox in der Ausbildung"

  1. Was uns zu glücklichen Menschen macht, ist bei aller Unterschiedlichkeit und wertvollen Vielfalt die Beziehungsfähigkeit. Dass Schulen KI besser können sollen wollen als KI es selber kann, sehe ich als einen Holzweg. Er führt noch weiter in die Sackgasse der autoritär-hierarchischen und industriell-militärisch-technokratischen sogenannten Zivilisation. Die Welt, wie sie ist, leidet unter der Herrschsucht und der Zerstörungswut von brutal kranken Mächtigen. – „Die Normalen sind die Kränkesten und die Kranken die Gesündesten.“ So drückte es der deutsch-amerikanische Psychologe und Philosoph Erich Fromm in den 1980er-Jahren aus. Schon damals waren viele Menschen nicht mehr in der Lage zu merken, dass etwas nicht stimmt. Schon damals konnten viele sich selbst nicht mehr spüren. Als so entfremdet beschrieb Erich Fromm sie, so instrumenten- und roboterhaft, dass sie keinen Konflikt mehr empfinden können: Als so verkümmert, dass sie dem Bild einer chronischen Schizophrenie entsprechen. – Wenn diese Krise nicht gesehen werden will, so hat mich das lange wütend gemacht. Wenn die Chancen nicht genutzt werden wollen, die in einer Krise stecken, bin ich jetzt nur noch traurig.

  2. Wir sind uns wieder einmal einig. Ich habe mich von Anfang an am Begriff „Künstliche Intelligenz“ gestört. Denn mit Intelligenz hat das Ganze rein gar nichts zu tun. Es handelt sich vielmehr um ein eloquentes Lexikon, das aus seinem immensen Fundus richtige und brillant formulierte, aber eben auch falsche Aussagen zusammenstellt. Und wer die richtige Antwort nicht kennt, kann die Richtigkeit dieser Aussagen eben auch nicht beurteilen.

  3. Vielleicht könnte ein Ausweg aus dem KI-Paradox im Unterricht so erreicht werden, dass den Auszubildenden ein mangelhafter KI-Text vorgelegt wird mit der Aufgabe, den Mangel aufzuspüren, zu korrigieren und die Korrektur zu begründen …

Schreiben Sie einen Kommentar

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.