Warum künstliche Intelligenz Schule und Uni besser macht

Publiziert am 20. Januar 2023 von Matthias Zehnder

New York City hat ChatGPT in den Schulen bereits verboten, in Deutschland und der Schweiz beschäftigen sich Politiker mit entsprechenden Vorstössen: Der künstlich intelligente Chat-Bot setzt Lehrpersonen unter Druck. Die Sorge: Die künstliche Intelligenz mache Hausarbeiten künftig unmöglich, weil Lehrpersonen nicht mehr unterscheiden können, ob eine Arbeit vom Schüler oder von der KI geschrieben worden ist. Ob Hausaufsatz oder Maturaarbeit – Schulen befürchten, dass die Schüler künftig zurücklehnen und die KI für sich arbeiten lassen. Damit stellen sich einige grundsätzliche Fragen: Werden KI-Angebote die Schulen revolutionieren? Das Potenzial dazu haben sie. Aber anders, als Sie vielleicht jetzt meinen. Denn nur weil eine künstliche Intelligenz ein paar grade Sätze herausbringt, heisst das nicht, dass die Schülerinnen und Schüler nicht mehr lernen müssen. In meinem Wochenkommentar sage ich Ihnen, warum gute Schulen und Universitäten sich vor der künstlichen Intelligenz nicht fürchten müssen. Im Gegenteil dürfte die KI gute Schulen besser machen.

«Chatbot schreibt Maturaarbeit, die Schülerin lehnt sich zurück», titelte die «Berner Zeitung» diese Woche und fordert, Professorinnen und Lehrer müssten «Strategien für dieses mögliche Szenario entwerfen». In den USA haben die ersten Schulen bereits gehandelt: Die öffentlichen Schulen von New York City verbieten ihren Schülerinnen und Schülern ab sofort die Nutzung des intelligenten Chat-Dienstes von Open AI. In den Schulen ist der Zugriff auf den Dienst auf allen Geräten und in den Schulnetzwerken generell blockiert. Auch in Deutschland und in der Schweiz fragen sich Schulen und Universitäten, wie sie künftig sinnvoll Hausarbeiten bewerten sollen, wenn KI-Systeme wie ChatGPT solche Arbeiten auf Knopfdruck anfertigen können.

 

Jan Kirchmayr, SP-Landrat im Parlament des Kantons Basel-Landschaft, hat die Regierung des Kantons jetzt gefragt, wie der Einsatz von solchen Chatbots an den Schulen des Kantons und an Hochschulen reguliert werde. Die Antworten des Regierungsgrats sind ebenso typisch wie unbefriedigend. «Sowohl in der Volksschule als auch auf der Sekundarstufe II gibt es derzeit keine Richtlinien, die den konkreten Umgang mit Chatbots regulieren», schreibt die Baselbieter Regierung. «Wo autonome Leistungen verlangt werden, dürfen sie analog zu anderen Hilfsmitteln, wie zum Beispiel programmierbare Taschenrechner, nicht verwendet werden.» Nur haben sich die Schülerinnen und Schüler dieser Welt noch nie von solchen Regeln abhalten lassen, ein nützliches Hilfsmittel zu verwenden. Entsprechend unbefriedigt ist Kirchmayr mit der Antwort. Für ihn sei klar: «Abwarten ist keine Option. Die Schulen benötigen klare Anweisungen, wie mit Chatbots umzugehen ist.»

Wo wird KI wie ChatGPT zum Problem?

ChatGPT ist ein Chatbot, der sich kostenlos über das Internet benutzen lässt. Dahinter steckt eine künstliche Intelligenz der Firma OpenAI. Ich habe ChatGPT schon letztes Jahr ausführlich kommentiert. Der Chatbot ist in der Lage, Fragen zu beantworten, Textvorschläge zu machen und ganze Textabschnitte zu entwerfen und das nicht nur auf Englisch, sondern auch auf Deutsch. Der Chatbot stützt sich inhaltlich auf Quellen aus dem Internet, generiert aber jede Antwort neu. Während Lehrpersonen relativ rasch sehen können, ob eine Schülerin, ein Schüler aus Wikipedia abgeschrieben hat, lässt sich das bei ChatGPT nicht so einfach feststellen. Die herkömmlichen Methoden zur Plagiatskontrolle versagen, weil die vor allem nach Formulierungen suchen, die aus anderen Quellen stammen könnten. Sind die Befürchtungen, dass ChatGPT künftig Maturaarbeiten generiert, also berechtigt?

Die kurze Antwort: Nein. Schlagzeilen wie «Chatbot schreibt Maturaarbeit, die Schülerin lehnt sich zurück» sind Quatsch. Und das aus drei Gründen.

1. ist ChatGPT nicht in der Lage, längere Texte zu generieren. Es ist kein Schreibautomat, sondern ein Chat-Roboter: Typischerweise generiert das Programm auf eine Frage zwei oder drei Textabschnitte mit jeweils vier bis fünf Zeilen. Von einer Maturaarbeit ist das so weit entfernt wie der Eintrag in einem Konversationslexikon.

2. ist ChatGPT fehleranfällig. Der Chatroboter verblüfft zwar mit seinen Fähigkeiten, Fragen zu beantworten. Allerdings kann man sich inhaltlich nicht auf die Texte verlassen. Manche Antworten sind erstaunlich fehlerhaft. Das hat damit zu tun, dass ChatGPT keine Ahnung hat, was das Programm sagt. Die künstliche Intelligenz arbeitet nämlich nur mit der sprachlichen Oberfläche. Sie berechnet, welche Wörter wahrscheinlich in einer Antwort auftauchen sollten. ChatGPT ist deshalb vergleichbar mit dem «Klugen Hans», einem dressierten Pferd, das scheinbar rechnen konnte, tatsächlich aber auf den Gesichtsausdruck seines Gegenübers reagierte. Zudem ist ChatGPT oft nicht in der Lage, Quellen für seine Aussagen anzugeben. Auch das limitiert die Verwendbarkeit der Antworten in Schule und Studium.

3. sind die Texte des Roboters blutleer. ChatGPT schreibt für einen Computer verblüffend gut. Wirklich. Aber das, was das Programm da generiert, sind blutleere, emotionslose Texte. Sie haben keinerlei emotionale Dimension. Es gibt keinen Bezug zu persönlichem Erleben. Kunststück: Der Computer hat ja auch keins. Der Roboter beschreibt Fakten, Eckpunkte werden oft wiederholt, es tauchen wenig Adjektive in den Texten auf, sie sind von einer trockenen, etwas umständlichen Sachlichkeit. Daran lassen sich generierte Texte (mindestens im Moment) auch zuverlässig erkennen. Anders gesagt: ChatGPT beeindruckt, weil wir eine solche Textkompetenz von einem Computer bisher kaum gesehen haben. Das heisst aber noch nicht, dass die Texte gut wären.

Der Weg ist das Ziel

Dazu kommt: Der Text einer Maturaarbeit oder einer Bachelorarbeit ist nur das Resultat eines längeren Prozesses. Wer heute eine solche Arbeit schreibt, zieht sich nicht in ein stilles Kämmerlein zurück, wo er sich von ChatGPT oder, was immer noch realistischer ist, vom grossen Bruder, von der Mutter oder einer Bekannten helfen lassen kann. Das Schreiben einer solchen Arbeit ist ein begleiteter Prozess. Lehrperson und Schüler oder Studenten vereinbaren Milestones, tauschen Konzepte, Thesen und Quellenlisten aus. Der Text der Arbeit ist nur das Resultat dieses Prozesses. Dabei reden Lehrperson und Student oder Schülerin auch regelmässig miteinander. In diesen Gesprächen würde es auffallen, wenn der Prüfling von seinem Thema keine Ahnung hätte, die Literatur nicht lesen würde und über einzelne Aspekte der Arbeit keine Auskunft geben könnte.

Das zeigt auch, wo Schulen und Universitäten Schwerpunkte setzen sollten: Der Prozess, der Weg zur Arbeit rückt ins Zentrum. Die Arbeit selbst ist nur das Resultat davon, so, wie das Gipfelselfie das Resultat einer Kletterpartie ist. Im Zentrum aber steht das begleitete Klettern. Dabei darf, ja soll ChatGPT künftig durchaus eine Rolle spielen. Aber nicht als Schummelhilfe, sondern zum Beispiel als Werkzeug auf der Suche nach Argumenten oder nach Quellen, als Inspirationshilfe und als Tutor, der unermüdlich Fragen beantwortet.

ChatGPT als Lernhilfe

Diese Tutorfunktion ist vielleicht das stärkste Potenzial, das ChatGPT bietet. Die KI hat unendlich Geduld und kann die Photosynthese und ihre Aspekte, den ACI in der lateinischen Grammatik oder die Geheimnisse der euklidischen Geometrie immer wieder neu erklären und bringt, etwa zum ACI, auch immer wieder neue Beispiele. Allerdings auch das nicht fehlerfrei: In meinen Tests brachte ChatGPT als Beispiel den ACI und den Ablativus absolutus durcheinander. Noch schlechter schneidet die KI bei der Beantwortung von Fragen zu Politik und Zeitgeschichte ab. Da ist das Wissen des Chatbots offensichtlich beschränkt und manchmal auch etwas zweifelhaft.

Das zeigt, dass für ChatGPT dasselbe gilt wie für das Internet als Ganzes: Die maschinelle Intelligenz setzt bei ihrer Bedienung viel Wissen und Kompetenz voraus. Damit ähneln sich ChatGPT und Übersetzungsprogramme wie Deepl oder Google Translate: Wer sich blind auf die Programme verlassen muss, geht ein hohes Risiko ein, Fehler zu machen. Wer die Fremdsprache dagegen beherrscht, für den bieten die Programme eine gute Hilfe im Alltag.

Die drei «K» von Schule und Universität

Was bedeutet das jetzt konkret für Schulen und Universitäten? Müssen sie sich warm anziehen? Ich glaube, sie müssen sich keine Sorgen machen, wenn im Unterricht und bei den Prüfungen drei Aspekte im Zentrum stehen:

1. Kenntnisse. Eine Schule, die sich auf das Abfragen von Formulierungen und Wissensbrocken beschränkte, hat ihren Schülerinnen und Schülern noch nie viel genützt. Wichtig ist, dass echte Kenntnisse im Zentrum stehen, dass die Schüler und Studenten also den Stoff verstehen und dass diese Kenntnisse auch vernünftig überprüft werden. Die Medizinstudentinnen und -studenten müssen zum Beispiel nach jedem Semester im Rahmen einer umfangreichen Multiple-Choice-Prüfung belegen, dass sie sich das Wissen in den Vorlesungen wirklich angeeignet haben. Die Fragen werden dabei so gestellt, dass Auswendiglernen nicht weiterhilft. Man kann darüber streiten, ob diese Prüfungsform sinnvoll ist. Wichtig ist: Die Kenntnisse werden regelmässig überprüft und zwar so, dass die Geprüften keinerlei Hilfsmittel einsetzen können.

2. Kompetenzen. Die Schulen haben in den letzten Jahren eine Entwicklung gemacht weg vom Stoff hin zu Kompetenzen. Die Herausforderung durch ChatGPT zeigt, wie wichtig diese Neuorientierung ist. Es genügt eben nicht, sich lexikalisches Wissen anzueignen. Ziel muss es sein, dass die Schülerinnen und Schüler Fertigkeiten erwerben und ihr Wissen anwenden können. Es genügt zum Beispiel nicht, zu wissen, welche verschiedenen statistischen Mittelwerte es gibt, man muss sie auch berechnen können und wissen, wann es sinnvoll ist, zum Mittelwert zu greifen.

3. Kreativität. Wer über Kenntnisse und Kompetenzen verfügt, ist in der Lage, sie immer wieder neu zu kombinieren. Das Resultat ist Kreativität. Genau das geht Computern ab. Man kann nicht genug betonen, dass eine künstliche Intelligenz weder intelligent noch kreativ ist. Eine KI simuliert Intelligenz nur. Es ist unser Problem, dass wir manchmal die simulierte von der echten Intelligenz nicht unterscheiden können, weil wir uns gerne blenden lassen.

Was bedeutet das für Schulen und Universitäten?

Ich sehe fünf konkrete Punkte.

1. Keine Verbote. Schulen und Universitäten sind gut beraten, ChatGPT und ähnliche Angebote nicht einfach zu verbieten. Zum einen ist es in der Praxis schwierig bis unmöglich, solche Verbote wirklich umzusetzen, zum anderen wird die künstliche Intelligenz künftig ein Teil unserer Welt sein. Es ist nichts als sinnvoll, wenn die Schule ihre Schülerinnen und Schüler mit den Möglichkeiten und vor allem mit den Grenzen der KI vertraut macht.

2. KI als Tutor. ChatGPT hat Stärken, die sich für die Schule nutzen lassen. Niemand beantwortet so geduldig Fragen wie eine künstliche Intelligenz. Als Tutor könnte ChatGPT gute Dienste leisten. Voraussetzung ist aber, dass die Antworten besser werden. Wer den ACI mit einem Ablativus absolutus verwechselt, hat auf meinem Schreibtisch nichts zu suchen.

3. KI als Schreibtool. Schreiben zu können, ist gerade im Computerzeitalter eine ganz zentrale Kompetenz. Auch wenn in der Praxis künftig an jedem Arbeitsplatz KI-Hilfen zum Einsatz kommen werden, wird auch künftig Sprachkompetenz nötig sein. Die KI lässt sich im Schreibunterricht als Tool einsetzen. Zum Beispiel als Tool, das schlechte Texte generiert, die es zu verbessern gilt.

4. KI macht Schulen besser. Die KI zwingt die Schulen und Universitäten dazu, noch mehr auf echte Kenntnisse, Kompetenzen und Kreativität zu setzen und Wege zu suchen, die drei «K» auch zu prüfen. Also weg vom Auswendiglernen hin zu echten Kompetenztests. KI macht die Schulen deshalb besser.

5. KI führt zu mehr Mündlichkeit. Noch steckt im Thema viel Hype drin. KI-Texte sind viel schlechter, als viele Medien schreiben. Aber das kann sich ändern. Der ultimative Beweis, dass es wirklich der Schüler ist, der eine Leistung erbringt, kann bald nur noch das direkte Gespräch und die mündliche Prüfung erbringen. Letztlich wird KI deshalb zu mehr Mündlichkeit und zu mehr direkter Interaktion zwischen Schülern und Lehrpersonen führen. Anders gesagt: Die KI zwingt Schulen und Universitäten zu mehr Menschlichkeit. Wer hätte das gedacht.

Basel, 20. Januar 2023, Matthias Zehnder mz@matthiaszehnder.ch

PS: Nicht vergessen – Wochenkommentar abonnieren. Dann erhalten Sie jeden Freitag meinen Newsletter mit dem Hinweis auf den neuen Kommentar, einen Sachbuchtipp, einen Tipp für einen guten Roman, das aktuelle Fragebogeninterview und mein persönlicher Tipp für ein gutes, digitales Leben. Einfach hier klicken. Und wenn Sie den Wochenkommentar unterstützen möchten, finden Sie hier ein Formular, über das Sie spenden können.

PPS: Wenn Sie den Wochenkommentar nur hören möchten, gibt es auch eine Audioversion. Hier der Link auf die Apple-Podcast Seite oder direkt auf die Episode:


Quellen

Bild: © KEYSTONE/Gaetan Bally

Bossard, Tobias (2023): ChatGPT wirbelt Unterricht auf – Schulen und Universitäten fordern Regeln für neuen Textroboter. In: Schweizer Radio Und Fernsehen (SRF). [https://www.srf.ch/news/schweiz/chatgpt-wirbelt-unterricht-auf-schulen-und-universitaeten-fordern-regeln-fuer-neuen-textroboter; 20.1.2023].

Buser, Sarah (2023): Wie Unis und Schulen mit künstlicher Intelligenz umgehen. In: «Berner Zeitung», 17. 1. 2023. S. 3. [; 20.1.2023].

Huang, Kalley (2023): Alarmed By A.I. Chatbots, Universities Start Revamping How They Teach. In: The New York Times. [https://www.nytimes.com/2023/01/16/technology/chatgpt-artificial-intelligence-universities.html; 20.1.2023].

Kirchmayr, Jan (2023): Von Der Regierung Wollte Ich Heute Wissen, Wie Die Schulen Und Universitäten Mit ChatGPT Umgehen Sollen. Hier Die Antworten Der Regierung. Für Mich Ist Klar: Abwarten Ist Keine Option. Die Schulen Benötigen Klare Anweisungen, Wie Mit Chat-Bots Umzugehen Ist. In: Twitter. [https://twitter.com/JanKirchmayr/status/1613495324915519490; 20.1.2023].

Metz, Cade und Weise, Karen (2023): Microsoft Bets Big On The Creator Of ChatGPT In Race To Dominate A.I. In: The New York Times. [https://www.nytimes.com/2023/01/12/technology/microsoft-openai-chatgpt.html; 20.1.2023].

Proschofsky, Andreas (2023): Chat GPT: Schulen in New York City verbieten die Nutzung der Text-KI. In: Der Standard. [https://www.derstandard.at/story/2000142346024/chat-gpt-schulen-in-new-york-city-verbieten-die-nutzung; 20.1.2023].

Rast, Damian (2023): Künstliche Intelligenz: Wann übernehmen Die Roboter? In: Schweizer Radio Und Fernsehen (SRF). [https://www.srf.ch/news/gesellschaft/experte-ordnet-ein-kuenstliche-intelligenz-wann-uebernehmen-die-roboter; 20.1.2023].

Regierungsrat des Kantons Basel-Landschaft (2023): Fragestunde der Landratssitzung vom 12. Januar 2023. [https://baselland.talus.ch/de/dokumente/geschaeft/00b7f40f4a55433d904277140fa97ccb-332; 20.1.2023].

Zehnder, Matthias (2022): ChatGPT: KI schlägt Menschen – was heisst das für uns? In: MatthiasZehnderch. [https://www.matthiaszehnder.ch/wochenkommentar/chatgpt/; 20.1.2023].

3 Kommentare zu "Warum künstliche Intelligenz Schule und Uni besser macht"

  1. Inspirierende Gedanken, danke 🙂
    KI ist im besten Fall also ein gutes Werkzeug. Und um dieses angemessen einsetzen zu können, brauchts zB:
    A) eine Idee, wo ich sie wie einsetzen will und was ich mit dem Output anstellen kann & will
    B) Augenmass, um abzuschätzen, ob das, was KI liefert, sinnvoll, brauchbar & qualitativ OK ist
    .. denn: „A fool with a tool is still a fool.“ 😉
    Die Schlussfolgerung und Pointe, „KI zwingt Schulen & Unis zu mehr Menschlichkeit“, klingt fast zu gut, um wahr zu sein.
    Bevor dieses Mehr an Menschlichkeit Realität wird, brauchen die Lehrenden Orientierungshilfen auf dem Meer der Möglichkeiten (Wissen & Erfahrungswerte), um den Umgang mit KI gut vermitteln zu können. Dadurch wird Vermittlung eher anspruchsvoller, nicht?

  2. Für eine erfolgreiche Bildung sind Kenntnisse zentral. Fachwissen durch uferlose Kompetenzen „durchtränken“ zu wollen wird zum Flatterwissen und zeigt die Lebens- und Praxisferne der modernen Bildungspädagogik und ihren Experten.
    Ohne Vernetzungen durch eine eigene Strukturierung des Stoffes entsteht „loses und angeworfenes Computerwissen“, aber keine Bildung. Die „Netzdichte durch eine zunehmende Netzknotenanzahl im eigenen Gehirn“ entscheidet über das Niveau der Lern- und Bildungsqualität. Hier hat ein Chat-Roboter, solange er noch nicht ein Schreibautomat ist, als Hilfsmittel sicher eine Berechtigung. Doch zu glauben, dass ein Auswendiglernen keine Bedeutung mehr hat und das Schriftliche durch mehr Mündliches zu ersetzen sei, grenzt wichtige Trainingsarten für die eigenen Hirnstrukturen aus.
    Inflationär eingesetzte Handlungskompetenzen (=Selbst-, Methoden- und Sozialkompetenzen) mit «entlastendem» Wissenstraining bringt einen klaren Rückschritt, denn für den nachhaltigen Erfolg entscheidet vor allem das mit Kompetenzen verwobene Wissen und nicht ein Kompetenzentraining im luftleeren Raum.

  3. Die Frage, ob und wie Künstliche Intelligenz für die Bildung genutzt werden darf, gehört zur Politik und Wissenschaft der Rennbahnpädagogik. Schulen, Universitäten und andere Institutionen, in denen (unter Zwang) gelernt wird, um zu gewinnen, sind ein falsches System. So wie Krieg nicht das Richtige ist, um in der Welt frei und miteinander im Frieden zu leben. Mehr dazu siehe, lese und höre bei «Round About Peace»: https://round-about-peace.com/.

Schreiben Sie einen Kommentar

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.