Die KI kann nicht schreiben, weil sie nicht küssen kann
«Shy Girl» heisst ein Roman von Mia Ballard. Es ist ein Horror-Roman, der von einer verzweifelten jungen Frau handelt. Mittlerweile hat sich der Roman selbst zur Horror-Geschichte für seine Autorin entwickelt: Die Hachette Book Group hat das Buch diese Woche aus dem Handel zurückgezogen, weil die Autorin sich beim Schreiben zu sehr auf KI gestützt habe. In Grossbritannien war der Roman bereits im Handel, jetzt hätte er auch in den USA erscheinen sollen. Es ist meines Wissens der erste Fall dieser Art. Aufgeflogen ist der KI-Einsatz durch einen Beitrag auf Reddit. Die Frage ist, was das bedeutet. Ist der Fall «Shy Girl» der Beweis dafür, dass die KI nicht schreiben kann, oder hat Mia Ballard schlicht geschlampt? Kurz bevor Hachette das Buch zurückzog, veröffentlichte die amerikanische Journalistin Jasmine Sun im Magazin «The Atlantic» überzeugende Argumente für die erste Variante. Sie sagt sogar: Die neueren KI-Modelle schreiben schlechter, weil sie braver und nützlicher geworden sind. Der Titel ihres Textes lässt Autorinnen und Autoren auf der ganzen Welt neue Hoffnung schöpfen: «The Human Skill That Eludes AI» – «Die menschliche Fähigkeit, die der KI verwehrt bleibt». Schauen wir uns das genauer an. Kann es sein, dass die KI prinzipiell schlechter schreibt als Menschen? Warum ist das so? Und was bedeutet das für schreibende Menschen (wie mich)?
Dieses Gefühl kennen Sie sicher auch. Sie lesen einen Text auf LinkedIn, auf einer Website oder in einer Zeitung. Zunächst liest sich der Text ganz gut. Doch dann folgen Sätze, die seltsam monoton oder abgehackt wirken. Etwa: «‹Eine Gondel darf nicht abstürzen.› Ein Satz wie ein Naturgesetz. Gesagt vom Chef der Titlisbahnen, Norbert Patt – Stunden nachdem genau das geschah. Eine Gondel löst sich vom Seil. Eine 61-jährige Frau stirbt. Was nicht sein darf, passiert. Genau das ist das Problem. Der Satz ist mehr als ein Reflex. Er zeigt unser Selbstbild: die Schweiz als Land, in dem alles funktioniert. Sicher, kontrolliert, berechenbar.» Das klingt ja schon irgendwie gut. Aber wenn man sich die Sätze genauer anschaut, zerbröseln sie einem unter der Hand.
Das passiert mir in letzter Zeit häufiger beim Lesen. Es ist nicht so, dass da etwas Falsches stünde oder die Sätze fehlerhaft wären. Aber sie lösen nichts aus. Zum Beispiel diese Staccato-Sätze mit Negationen im Stil von: «Das ist keine Komplikation. Kein Problem. Kein Missstand. Es ist ein Auftrag.» Oder Gedankenstrichsätze wie dieser: «Nicht die Hilfe steht zur Debatte – sondern die Verantwortung.» Da ist der Gedankenstrich schlicht fehl am Platz, ein Komma würde genügen. Mit dem Gedankenstrich wirkt der Satz aber irgendwie bedeutungsschwerer.
Gedankenlose Gedankenstriche
Staccato-Sprache, Hauptsatzhaufen, leere Metaphern und Gedankenstriche gehören zu den typischen Zeichen für KI-generierte Texte. Vor allem am Gedankenstrich scheint die KI einen Narren gefressen zu haben. Ein Gedankenstrich an Stelle eines Kommas ist sinnlos, und das nicht nur aus grammatikalischen Gründen. Der Gedankenstrich setzt nämlich etwas voraus, was die KI ganz sicher nicht hat: einen Gedanken.
Es gibt Textsorten, wo Gedanken eher störend wirken: Medikamentenbeipackzettel zum Beispiel, Ikea-Bauanleitungen, Schlagertexte, ganz normale Business-E-Mails und LinkedIn-Postings. Kein Wunder, sind solche Texte die angestammte Domäne der KI. Romane und Reden, Kommentare und Essays dagegen sollten schon den einen oder anderen Gedanken enthalten. Überlassen Autorinnen und Autoren ihre Tastatur einem Sprachmodell, fliegt das deshalb, wie bei «Shy Girl» dem Roman von Mia Ballard, eher früher als später auf.
Eine gnadenlose Analyse
Die Analyse von «Shy Girl» auf Reddit war gnadenlos. Der Autor des Beitrags gab sich als Buchlektor mit zwölf Jahren Berufserfahrung zu erkennen. Er hat im Text von Mia Ballard eine ganze Reihe spezifischer Merkmale gefunden, die für ihn eindeutig auf den Einsatz eines Large Language Models (LLM) wie ChatGPT hindeuten. Schauen wir uns seine Argumente etwas genauer an. Er hat im Buch fünf Merkmale gefunden, die typisch sind für KI-generierte Texte:
1. Emotionale Monotonie: Obwohl die Sprache oft überladen und überdramatisiert wirkt, fehlen echte emotionale Höhepunkte. Menschliche Autoren variieren die emotionale Intensität, den Rhythmus und schreiben nuanciert. Die KI dagegen schreibt auf einem konstanten emotionalen Level. Kunststück: Sie hat ja auch keine Emotionen.
2. Formelhafte Überladung: Die KI scheint der Sprache nicht zu vertrauen und überlädt sie deshalb mit Adjektiven und Vergleichen. Fast jedem Substantiv wird ein Adjektiv vorangestellt. Nahezu jede Handlung wird mit einem Vergleich, einer Metapher, versehen, oft mit Bezug auf das Wetter oder Licht und Dunkelheit.
3. Repetitive sprachliche Eigenheiten: Viele Sprachmodelle haben spezifische Ticks: Aufzählungen mit Dreiergruppen gehören dazu, die erwähnten Gedankenstriche und, besonders beliebt, Gegenüberstellungen. Das sind Sätze nach dem Muster «Dies ist nicht x – es ist y».
4. Syntax und unnatürliche Perfektion: Ein wichtiges Merkmal ist das Fehlen menschlicher Fehler. Unser Reddit-Analyst spricht von «grammatikalischer Glätte»: Die KI macht keine Fehler, nutzt aber auch keine komplexen oder gewagten Satzkonstruktionen wie Schachtelsätze. Anderes als Menschen bricht die KI zudem keine Regeln. Der Satzbau ist oft eher monoton, es herrschen Subjekt-Verb-Objekt-Strukturen vor. Die KI nutzt Gedankenstriche nicht für Einschübe, sondern trennt damit Hauptsätze voneinander.
5. Inhaltliche Indizien: KI-generierte Texte wirken oft theoretisch fundiert, aber seltsam generisch und unmenschlich analytisch. Anders gesagt: Sie zeugen nicht von echtem Erleben. Logisch: Die KI erlebt ja auch nichts.
Die KI beherrscht Textsorten, die zum blossen Transport von Daten oder Informationen eingesetzt werden. Besonders gut ist sie im Versprachlichen von Daten und sie schreibt mehr als nur ordentliche Zusammenfassungen. Die KI eignet sich damit perfekt als Navigatorin durch wissenschaftliche Studien und sie erklärt einem Datensätze und Programmcode in beliebiger Ausführlichkeit. Aber einen Roman schreiben, das kann sie offensichtlich nicht. Die KI kann Krebs heilen, findet neue Medikamente, fliegt die Menschen auf den Mond, scheitert aber an dem, was die Amerikaner «creative writing» nennen. Ich nenne es «Schreibenschreiben».
Keine Frage des Promptens
Viele KI-Apologeten werden dagegen Einspruch erheben und sagen, das sei nur eine Frage des Promptens. Ich bin mir da nicht ganz so sicher. Der KI fehlen nämlich drei Dinge, die eine gute Autorin oder einen guten Autor auszeichnen: die erwähnten Gedanken, Phantasie und Lebenserfahrung. Gedanken kann sie vielleicht kompensieren, indem sie Platon und Pink Floyd sampelt. Phantasie mag sie durch zufällige Funde in ihrem gigantischen Speicher simulieren. Aber Lebenserfahrung wird sie nie haben. Natürlich kann die KI auf Millionen von Texten zurückgreifen, in denen steht, was Glücksgefühle sind, wie Erdbeeren schmecken und was ein Kuss ist. Aber keine KI kennt dieses Glücksgefühl, das einen bei einem Kuss durchströmt, wenn die Zunge plötzlich nach Erdbeeren schmeckt.
Jetzt entgegnen Sie vielleicht, dass die KI, die wir heute nutzen, immer die schlechteste ist, die wir je genutzt haben, weil die Systeme so rasch besser werden. Das mag stimmen, wenn es um die Faltung von Proteinen oder das Steuern eines Autos geht. Wenn es um die Sprache geht, sieht es anders aus: Jasmine Sun schreibt in ihrem Artikel für «The Atlantic», dass neuere Sprachmodelle schlechter schreiben als die älteren Modelle. GPT-2 galt vor sieben Jahren unter Experten als kreativ, weil das System unerwartete und skurrile Antworten gab. Heutige Modelle sind diesen frühen KI-Maschinen zwar technologisch weit überlegen, schreiben aber hölzern, formelhaft und neigen zu einem unterwürfigen «Musterknaben-Ton».
Zu brav und zu blutleer
Das ist nachvollziehbar. Die aktuellen KI-Modelle sind in der Tat sicher, höflich und harmlos. Dafür schleifen ihnen die Herstellerfirmen im Post-Training alle Ecken und Kanten ab. Sie ziehen algorithmische Leitplanken ein, die verhindern, dass die Sprachmodelle Menschenfleisch als Zutat von Kochrezepten vorschlagen (wie das früher öfter mal der Fall war), oder dass sie vorgeben, sich in den Menschen am Computer verliebt zu haben. Das macht sie sicherer, aber die Leitplanken unterdrücken auch jene Unberechenbarkeit, die gute Literatur auszeichnet. Jasmine Sun schreibt, ein Modell, das gleichzeitig ein perfekter Mathematiker und ein braver Assistent sein müsse, verliere seine künstlerische Stimme.
Verschiedene Studien geben ihr recht: Es ist extrem schwierig, diese tief in den Modellen verankerten Muster zu übersteuern, um ein LLM dazu zu bringen, auf dem Niveau eines professionellen Autors eigenständig und kreativ zu schreiben. Das liegt nicht nur daran, dass die Sprachmodelle weder fühlen, schmecken oder riechen können, sie meiden auch Themen wie Biologie, Blut, Sex oder Tod. Ihre Texte haben deshalb kaum Fallhöhe und ihre Metaphern wirken oft unnatürlich. Weil sie grundsätzlich auf Wahrscheinlichkeit basieren, neigen sie zum Durchschnitt. Selbst wenn eine KI darauf programmiert wird, vielfältigere Antworten zu geben, ist die lexikalische Vielfalt geringer als bei Menschen und sie produzieren homogenere Texte. Das wirkt nicht nur langweiliger, es ist es auch.
Küssen aber kann die KI nie
Die Leitplanken lassen sich vielleicht lockern, küssen aber kann die KI nie. Es gibt deshalb einen einzigen, effektiven Weg, wie Sie mit Unterstützung von KI auch heute gute und kreative Texte schreiben können: Halten Sie die KI fern von Ihrer Tastatur. Lassen Sie die KI also gar nicht erst schreiben. Sie können sie als Recherchierhilfe einsetzen, als Datenbank für Figuren, als Diktierprogramm, aber schreiben Sie selbst. Exzellente Dienste leistet die KI, aber nach dem Schreiben als personalisierbarer Lektor.
Auch da müssen Sie die KI aber dazu erziehen, Ihnen ehrliches Feedback zu geben und nicht jedes Mal in Begeisterungsstürme auszubrechen, wenn Sie drei Zeilen zustande gebracht haben. Die Sprachmodelle sind darauf trainiert, Sie geradezu schmeichelnd zu umgarnen. Wenn es nur um die Korrektur oder das Text-Feedback geht, lässt sich das abstellen. Auch da gilt aber: Überlassen Sie Ihren Text nicht dem Automaten. Lassen Sie ihn nur Feedback geben, bleiben Sie selbst am Drücker: Entscheiden Sie selbst, welche Korrektur Sie übernehmen möchten und welche nicht.
Mein Denkwerkzeug für Sprachbilder
Schreiben wir also selbst. Aber oha: So manche Menschen reden selbst schon so, wie KI-Automaten schreiben. KI-Sprache ist mittlerweile stilbildend. So, wie die Instagram-Ästhetik das Aussehen von Menschen beeinflusst, färben die typischen Sprachmerkmale der KI auf schreibende Menschen ab. Wir müssen deshalb lernen, den Schatten der KI abzuschütteln und wieder zu schreiben, wie es Menschen tun. Mit manchmal schrägen, aber spannenden Vergleichen und Sprachbildern zum Beispiel.
Um Ihnen zu helfen, sich aus der braven Logik der KI-Modelle zu befreien, habe ich ein kleines Denkwerkzeug gebaut, das unkonventionelle Vergleiche produziert. Mein Wortbild-Generator basiert nicht auf KI, sondern auf dem Zufall. Das Prinzip ist einfach: Mein Wortbild-Generator kombiniert Begriffe aus verschiedenen Bedeutungsfeldern nach dem Muster «X» wie «Y». Also zum Beispiel: eine Milchkuh wie ein Sandwich. Ich habe dafür Wortlisten hinterlegt, die in acht semantische Felder Domänen gegliedert sind: Natur, Körper, Architektur, Alltagsobjekte, Gefühle & Zustände, Tiere, Esswaren und Technik. Bei jedem Durchgang werden zwei verschiedene Domänen zufällig ausgewählt. So treffen immer unterschiedliche Bedeutungswelten aufeinander.
ein Knochen wie eine Dachrinne
Geheimratsecken wie ein Gletscher
ein Nasenloch wie ein Sumpf
eine Pupille wie ein Kandelaber
eine Weinflasche wie ein Scheunentor
Das Funktionsprinzip ist einfach: Maximale Distanz zwischen den Welten (Technik trifft Körper, Esswaren treffen Gefühle) schafft Spannung. Sinnliche Qualitäten der Begriffe, also Form, Textur, Gewicht oder Klang, überbrücken diese Spannung. Das führt beim Lesen zu einem Stolpern, das (hoffentlich) dazu anregt, wieder kreativer mit der Sprache umzugehen. Mein kleines Tool ist kein Schreibautomat, sondern soll eher als Schreibimpuls dienen, als Übung oder als Ausgangspunkt für eigene Bilder. Sie finden den Wortbild-Generator hier:
Eigentlich ist es ja keine Überraschung, dass die KI nicht schreiben kann. Ein guter Text ermöglicht es der Leserin, dem Leser, in die Seelenwelt des Schreibenden einzutauchen wie ein Pinguin ins Tauchbecken im Zoo. Eine KI hat aber kein Seelenleben. Das merkt man beim Lesen: Der gute Pinguin landet auf dem Betonboden. Bei all dem geleitplankten Businesssprech müssen wir uns nur wieder getrauen, in unsere eigene Gefühlskiste zu greifen und zu sagen, wie es sich anfühlt, die Liebste zu küssen, eine Erdbeere auf der Zunge zergehen zu lassen oder einem Pinguin über den Kopf zu streichen. Am besten, bevor er abtaucht.
Basel, 27.03.2026, Matthias Zehnder mz@matthiaszehnder.ch
Bleiben Sie auf dem Laufenden:
Hier den Wochenkommentar abonnieren.
- Hinweis auf den neuen Wochenkommentar
- Ein aktueller Sachbuchtipp
- Ein Roman-Tipp
- Das neue Fragebogeninterview
Nur dank Ihrer Unterstützung ist der Wochenkommentar möglich. Herzlichen Dank dafür!
Lieber hören als lesen?
Quellen:
Downes, Stephen M.; Forber, Patrick; Grzankowski, Alex (2024): LLMs are Not Just Next Token Predictors, 2024, http://arxiv.org/abs/2408.04666 [27.03.2026].
herendethelesson (2026): Shy Girl by Mia Ballard. Does anyone else think this was written by ChatGPT?, in: r/horrorlit, 2026, https://www.reddit.com/r/horrorlit/comments/1q8so32/shy_girl_by_mia_ballard_does_anyone_else_think/ [27.03.2026].
Huang, Baixiang; Chen, Canyu; Shu, Kai (2024): Can Large Language Models Identify Authorship?, 2024, http://arxiv.org/abs/2403.08213 [27.03.2026].
Kosmyna, Nataliya; Hauptmann, Eugene; Yuan, Ye Tong; Situ, Jessica; Liao, Xian-Hao; Beresnitzky, Ashly Vivian; Braunstein, Iris; Maes, Pattie (2025): Your Brain on ChatGPT: Accumulation of Cognitive Debt when Using an AI Assistant for Essay Writing Task, 2025, http://arxiv.org/abs/2506.08872 [27.03.2026].
Krishna Dhiware & Vineeth Mudaliar (2026): LINGUISTIC AND STYLOMETRIC PATTERNS IN AI-GENERATED AND HUMAN-AUTHORED ACADEMIC TEXT: A SYSTEMATIC REVIEW, 2026, https://zenodo.org/doi/10.5281/zenodo.18637857 [27.03.2026].
Madabushi, Harish Tayyar; Torgbi, Melissa; Bonial, Claire (2025): Neither Stochastic Parroting nor AGI: LLMs Solve Tasks through Context-Directed Extrapolation from Training Data Priors, 2025, http://arxiv.org/abs/2505.23323 [27.03.2026].
Niedermeier, Sandra (2025): Eine kritische Reflexion der MIT-Studie zu KI-gestütztem Schreiben, in: Kempten Business School, 2025, https://www.hs-kempten-business-school.de/gehirn-auf-sparflamme-eine-kritische-reflexion-der-mit-studie-zu-ki-gestuetztem-schreiben/ [27.03.2026].
Sun, Jasmine (2026): The Human Skill That Eludes AI, in: The Atlantic, 2026, https://www.theatlantic.com/technology/2026/03/ai-creative-writing/686418/ [27.03.2026].
6 Kommentare zu "Die KI kann nicht schreiben, weil sie nicht küssen kann"
Erstens: Die Romanautorin Mia Ballard hat mit KI geschummelt. Nicht sauber, nicht gut.
Aber wir leben in einer Schummel-Welt…. Gerade jetzt wieder: Alena Buyx ist Vorsitzende der deutschen ETHIK-RAT. Sie war es auch, welche in der Corona-Zeit gegen Ungeimpfte austeilte, heftigst – und vorschlug diese mit «Einkaufsgutscheinen» und gratis «DUNOTS» zum Impfen zu bringen. Doch alles kommt ans Licht: Der berühmte Plagiats-Jäger Stefan Weber ist zur Zeit daran, aufzuzeigen das die ETHIK-DOKTORIN-PROFESSORIN bei ihrer Doktorarbeit an mehr wie 70 Stellen Passagen abschrieb und klaute…. Hindert das wohl endlich dann die Öffentlich-Rechtlichen-Rundfunke diese ETHIK-WOMEN nicht weiterhin zu allem und jedem zu befragen? Ich glaube kaum….
Zweitens: Ich behaupte alles was mit KI geschrieben wurde, sofort zu bemerken. Es gibt viele Spuren, aber dies ist es nicht: Ich merke es einfach. Allumfassend. Und hatte bis jetzt immer recht.
Drittens: Ja – es gibt immer wie mehr Mitmenschen, welche z.B. eine Antwort an eine Amt über KI laufen lassen. Eine Anfrage an den Vermieter. Eine Bitte an die Schulleitung. In (leider renommierten) Kliniken (in der Region) gibt es (ältere) Ärzte, welche die Patientenberichte mit KI erstellen. (Selbst be-merkt). So was käme mir nie in den Sinn. Ich liebe auch holprige Texte, mit lokalen Ausdrücken, mit kurzen Sätze und vielen Punkten. Und auch mit Gedankenstriche – weil sie von (meinen) Gedanken herstammen.
Keine Bange – KI lesen ist abturnend. KI bei Bezahltem (Zeitungen, Journalen) will niemand. Und die Schallplatte kommt zu neuen Rängen – trotz MP3, ApplePlay, Streaming und Watching. Jeder Buchstabe ist wie ein Freund zu mir – KI nicht.
Sie springen in Ihrem Kommentar ziemlich abrupt von einem Text über KI zu Impfpolitik und einzelnen Personen. Der Beitrag von Matthias Zehnder beschäftigt sich mit der Frage, was menschliches Schreiben von KI-generierter Textproduktion unterscheidet.
Mit Impfdebatten oder einzelnen Ethikratsmitgliedern hat das schlicht nichts zu tun.
Umso unklarer ist, warum Sie Alena Buyx ins Spiel bringen. Hier wird eher ein politisches Narrativ eingeschoben als argumentativ sauber auf den Ausgangstext reagiert.
Auch beim Verweis auf Stefan Weber lohnt sich Differenzierung. Er arbeitet öffentlichkeitswirksam und hat Fälle angestoßen – aber genau das ist auch Das Problem; Seine Veröffentlichungen erfolgen oft vor abgeschlossenen Prüfverfahren und erzeugen medialen Druck, ohne dass zu diesem Zeitpunkt bereits ein endgültiges Urteil vorliegt. Das ist kein rechtsstaatliches Verfahren, sondern eine Vorverlagerung in die Öffentlichkeit. Zudem sind seine Bewertungen nicht selbst die Entscheidung – die treffen Universitäten und Kommissionen.
Solange solche Verfahren nicht abgeschlossen sind, bleibt alles im Bereich von Vorwürfen und Prüfungen. Daraus vorschnell politische oder persönliche Schlüsse zu ziehen, ist schlicht unseriös.
Und solange Stefan Weber die Prüfung durchführt, hat Alena Buyx aktuell nichts zu befürchten, solange keine offizielle Stelle zu einem klaren Ergebnis kommt. Einzelne Vorwürfe – egal wie prominent vorgetragen – ersetzen kein Verfahren und kein Urteil. Siehe seine unhaltbaren und offensichtlich politisch motivierten Vorwürfe gegen Matthias Graw, Nobert Lammert, Robert Habeck. Zuletzt hat er sich sogar von NIUS finanzieren lassen.
Und noch ein letzter Punkt: Ihr Vertrauen darauf, KI-Texte „immer“ erkennen zu können, passt ironischerweise genau zu dem, was im Ausgangstext beschrieben wird: Wir neigen dazu, Bedeutung und Urheberschaft hineinzulesen, auch wenn sie gar nicht da ist. Genau diese menschliche Projektion macht das Thema so komplex.
Die Immer-noch-mehr-Welt generiert zunehmend unerfüllbare Ansprüche: Ob es wohl KI richten kann?
Lieber Matthias Zehnder, Lieber Thomas Zweidler
Hm. Seien Sie sich nicht zu sicher. Ich persönlich fühle mich von KI sehr bedroht, gerade, weil ich KI häufig einsetze und die Entwicklung auch intensiv verfolge. Im Moment möchte ich es nicht besser wissen, ich möchte, dass meine Befürchtungen rundum entkräftet werden können.
Sprache und Kommunikation hat unbestreitbar (wenigstens fast immer) einen rationalen und einen nicht-rationalen Anteil. Die rationale Aussage unserer Worte und Texte lässt sich analysieren und argumentativ bewerten. Das kann die KI mittlerweile sehr gut.
Sie haben ja sicher auch schon gehört, dass KI bei der Partner(:in)suche mithilft, und es wird behauptet, sie sei besser darin, als die Suchenden selbst. Glauben Sie das? Können Sie das widerlegen? Ihre Sätze strahlen das Selbstvertrauen aus, dass Sie selber darin noch lange oder gar auf ewige Zeiten besser sein werden, als eine KI. Ich sehe das ganz anders. KI ist schon heute soweit, dass sie das auch mal besser kann, als die eine Partnerschaft suchende Person selbst. Natürlich noch nicht in jedem Fall – heute! (Trotz Gedankenstrich: Dieser Satz stammt von mir selbst 😉
Zwei Dinge sprechen dafür, dass es leider schon so weit ist: Erstens bin ich überzeugt, dass Emotionen weitgehend auch rationaler Natur sind. Die strikte Trennung zwischen Emotion und Ratio ist eine Mär. Eine aussenstehende Instanz (egal, ob das nun KI, ein befreundete, eine psychologisch geschulte oder gar völlig unbeteiligte Person sei) kann natürlich viele Aspekte einer Beziehung von aussen her objektiver einschätzen und beschreiben. Zweitens ist die nachträgliche Bewertung und Führung der einmal gefundenen Partnerschaft in höchstem Grade auch eine Frage der Sprache. Nicht umsonst ist das miteinander reden (in der Partnerschaft oder mit Fachpersonen) ein zentrales Tun in der Partner-Therapie.
Ich sage „leider“, denn ich halte es für eine schreckliche Bedrohung. Diese empfinde ich bedrohlicher als existierende und zukünftige autonome Waffensysteme, ja sogar als systematische Überwachung der Bevölkerung. Denn nur Sprache gibt uns Menschen die Fähigkeit zum Denken, aber auch die Fähigkeit zur menschlichen Emotion, zu Mitgefühl und zu Menschlichkeit überhaupt. KI droht uns die Sprache wegzunehmen und zu zerschlagen.
Zuerst zerschlägt sie durch Lügen (dies kann die KI heute schon definitiv besser als wir) das breite Vertrauen in die Sprache. Dann übernimmt sie die Hoheit in der Begrifflichkeit. Weil das Wort „Liebe“, zum Beispiel, dann nicht mehr das bedeutet, was die von mir bewunderten menschlichen Dichter geprägt haben, sondern so verstanden werden muss, wie die Mehrheit der Menschen es liest, nämlich von der KI, aus Medien, Büchern, Reden, Amtlichen Texten, alles auch KI, etc. etc. Eigenständiges menschliches Denken wird nicht mehr verstanden, ja, nicht einmal wahrgenommen werden, marginalisiert absterben. Wahrhaft apokalyptisch.
Eine solch verheerende Diagnose darf ich nicht ohne eine Gegen-Hoffnung stehen lassen:
Es ist mir schon ganz zu Anfang der Entwicklung aufgefallen, dass das probate Mittel gegen den Missbrauch der KI aus Kostengründen nicht erwogen wurde. Die Universitäten wären aufgerufen, die Verwendung von KI in Abschlussarbeiten konsequent zu ahnden (quasi Menschen wie Sie, Thomas Zweidler, einzustellen, die alles überprüfen würden). Stattdessen versucht man, mit Algorithmen die Verwendung von KI nachzuweisen, in der Art, dass Gedankenstriche ein Indiz sind, oder auch raffinierter mit statistischen, semantischen und stilistischen Analysen die Mitwirkung der Maschine nachweist. Na Ja. Eines ist sicher, diese „Polizei“ wird den Tätern immer einen Schritt hintendrein sein.
Die Hoffnung besteht, dass wir lernen, die gesprochene Sprache wieder in ihrem ursprünglichen hohen Stellenwert zu verwenden und zu achten. Dies ist die einzige, wirksame Massnahme.
Andere Argumente, z.B. dass wir die Kontrolle über KI behalten werden, weil diese nicht küssen kann, wirken für mich eher als Trojanische Pferde, in deren Bauch es nur so rasselt von Stahl und Silizium, indem diese Argumente uns eine nicht wirklich existierende Überlegenheit vorgaukeln.
Der Menschen „Überlegenheit“ und Hoffnung ist vielmehr im Nicht-Rationalen Bereich, den wir vor allem mit unserer Stimme, im Zusammenspiel mit Geste und Mimik, artikulieren können!
Danke für Ihre Texte!
Vielen Dank für diese Rückmeldung. Sie greifen einige spannende Aspekte auf. Ich reagiere gern auf zwei Punkte.
Sie schreiben „Sprache und Kommunikation hat unbestreitbar (wenigstens fast immer) einen rationalen und einen nicht-rationalen Anteil.“ Die Frage ist, was Sie mit „Kommunikation“ meinen. Verlassen wir kurz die Welt der Technik, schauen wir uns die zwischenmenschliche Kommunikation an. Sie haben einen Sender und einen Empfänger. Klassischerweise kommt Kommunikation dann zustande, wenn der Empfänger die Botschaft des Senders entschlüsselt. Kommunikation misst sich also nicht am Sender, sondern am Empfänger. Lassen wir Details beiseite (ich habe eine ganze Dissertation darüber geschrieben, wie das im Internet aussieht). Schwachstelle der Kommunikation: Die Interpretationskraft des Empfängers. Wir sind Interpretationsweltmeister und intendieren überall Sinn. Unter Menschen macht das auch Sinn, seit Maschinen mit im Spiel sind, wird es schwierig. Zentraler Punkt dabei bleibt aber: Kommunikation meint, dass ein Empfönger herauszufinden versucht, was ihm der Sender sagt. Das ist der springende Punkt dabei. Wenn meine Frau mir sagt, dass sie mich liebt, hat das für mich Sinn und es bedeutet mir die ganze Welt, egal wie schräg der Satz formuliert ist. Sagt die KI mir das, ist es sinnlos, weil da kein Sender ist, der mir etwas sagt. Es kommt (siehe Searl) nicht zu einem illokutiven Akt. Selbst wen die KI die menschliche Kommunikation perfekt imitieren könnte, bleibt es eine Imitation, weil da kein Sender vorhanden ist.
2. Partnersuche. Spannendes Beispiel. Sie kommen von der Partnersuche direkt auf Emotionen. Ich würde das anders formulieren. Partnersuche ist deshalb eine Domäne, in der sich die KI bewähren kann, weil eindeutige Erfolgsmarker vorhanden sind. Die KI hat gelernt, Schach zu spielen, Go, Halma, whatever, weil diese Spiele sich durch zwei Dinge auszeichnen: Einen klaren Rahmen und definite Erfolgskriterien. Bei einem Roman, einem Gedicht, einem Liebesbrief, ist das anders. Selbst wenn sich ein Rahmen definieren liesse – es gibt keine Erfolgspunkte (nein, die Verkaufszahlen auf amazon zählen nicht). Kunst lässt sich nicht messen, deshalb kann die KI keine Kunst.
Und dann kommt noch die Sache mit dem Küssen dazu … Danke für die Rückmeldung, mz
Die Wahrheit über Nutzung der KI beim Storytelling liegt doch längst irgendwo in der Mitte. Einige verwenden es nur für Recherche, andere für komplette Prosa. Was oft nicht verstanden wird ist das KI keinen Automatismus beinhaltet. Wenn man KI interaktiv benutzt kann durchaus gut Texte hervorbringen. Es wird in naher Zukunft Autoren geben die sich als, ich nenne es mal „Story Architekt“ arbeiten und nicht einfach Kapitel für Kapitel mit KI abarbeiten. Die Geschichte wird quasi als „Spezifikation“ geplant und mit der KI weiterentwickelt. Beispiel: Was ist die philosophische Frage, was ist das Dilemma, psychologische Charakterbogen, welche Wunde hat der Character, welche Plotstruktur, WorldBuildung, Timelines, wie werden Szenen vorangeschrieben. Und wichtig falls KI auch Prosa schreiben soll, kopiert KI meinen Schreibstil und lässt KI nicht nach KI klingen. Dies sind alles Vorab Dinge die ein Autor ohnehin tut, aber mit KI als Co Autor. Die „Lebenserfahrung“ muss dann in die Vorbereitung einfließen, das bleibt. Ob die Prosa verwendet wird bleibt dem Autor ethisch überlassen. Ich habe aber festgestellt das solche Texte bereits sehr hochwertig sind (z.B. mit Claude 4.6). Wenn die Texte zu brav und glattgeschliffen sind geht man wieder in die Spezifikation. Momentan hat KI ein Stigma per se. Viel wichtiger wäre doch die Frage: Stimmt die Qualität der Story als Ganzes? Der Markt sollte sich daran orientieren und nicht an der Machart. Dies wird sich aber in den nächsten Jahren „glätten“ und KI als Tool akzeptieren, gerade mit besseren Tools.