KI-Denkfehler #37: «KI ist kostenlos»
There is no such thing as a free lunch. Das sollte sich mittlerweile herumgesprochen haben. KI-Tools wie ChatGPT oder Claude mögen, mindestens in der Basisversion, tatsächlich gratis sein: Es gibt keinen sichtbaren Preis, keine Kreditkartenbelastung und Ende des Monats keine Rechnung. Doch «kostenlos» sind sie deswegen nicht: Die Kosten der KI sind unsichtbar, weil sie externalisiert sind. Das bedeutet: Andere bezahlen.
Damit wir hier bei uns ein «kostenloses» KI-Tool nutzen können, stützen wir uns zum Beispiel auf eine gigantische, globale Infrastruktur: das Internet, Rechenzentren, Cloudspeicher, Überseeleitungen, Glasfaserkabel, Hausanschlüsse. Würde die Gesellschaft das alles nicht bereitstellen, wären keine KI-Dienste möglich. Die KI selbst stützt sich auf nicht weniger als das Wissen der Menschheit: das Onlinelexikon Wikipedia, Dichtungen persischer Gelehrter, Physiklehrgänge, Botanikbücher und Milliarden von Fotos und Videos. Keine der KI-Firmen hat die Urheber all dieser Inhalte sorgfältig entschädigt. Wir lassen uns also von Räubern beschenken. Schauen wir uns das alles etwas genauer an.
1. Apekt Die unsichtbare Arbeit der Datenproduzenten
Ich bin immer wieder erstaunt, wie nonchalant die ganze Welt den grossen Datenraub der KI-Firmen hinnimmt. Schriftsteller, Wissenschaftler, Universitäten, Verlage, Bibliotheken, Zeitungen, Zeitschriften – sie alle wurden im grossen Stil um ihre Urheberrechte beraubt. Doch das scheint niemanden zu kümmern. Wenn Sie also hier und heute fröhlich eine kostenlose ChatGPT-Abfrage tätigen, geht das auf Kosten von zahllosen Autorinnen und Autoren. Das «Gratis»-Produkt KI basiert auf enteigneter intellektueller Arbeit.
Dazu kommt die schlecht entlöhnte menschliche Arbeit während des Trainings. Klick-Arbeiter in Afrika und Asien sorgen für das Finetuning der Modelle. Sie schauen sich für einen Hungerlohn traumatisierende Bilder und Filme an, quälen sich durch Antwort-Stacks und sorgen mit ihren Klicks dafür, dass sich die Modelle in den wohltemperierten Büros von Europäern und Amerikanern anständig verhalten. Wie einst und je profitiert der reiche Norden von kolonialer Arbeitsausbeutung.
2. Apekt Der grosse Energiehunger
KI-Systeme sind extrem energiehungrig und das gleich zweimal. Schon das Training eines Sprachmodells ist extrem energieintensiv: Spezialisierte Hardware-Cluster werden über Wochen oder Monate hinweg unter Volllast betrieben. Schätzungen gehen davon aus, dass das Training von GPT-4 etwa 50 GWh Energie verbrauchte. Das ist etwa die Energiemenge, die es braucht, um 750’000 E-Autos einmal aufzuladen.
Sind die Modelle einmal erstellt, verbrauchen sie bei jeder Anfrage Energie. Der Energieaufwand pro Prompt variiert stark je nach Modellgrösse und Hardwarearchitektur. Ein entscheidender Faktor ist zudem die Komplexität der Aufgabe. Während ein einfacher textbasierter Prompt nur unwesentlich mehr Energie verbraucht als eine Google-Suche, steigt der Bedarf bei Modellen mit «Reasoning»-Fähigkeiten auf das 70-fache eines Standard-Prompts. Diese Modelle berechnen eine Antwort nicht nur einmal, sondern arbeiten Schleifen ab. Das vervielfacht die Rechenzeit und damit den Energieverbrauch pro Nutzerabfrage.
Nun könnte man mit den Schultern zucken und sagen: Das ist die Sache von Google, OpenAI und Anthropic. Doch das eigentliche Problem sind die regionalen Auswirkungen des hohen Strombedarfs. In Rechenzentrums-Clustern wie Nord-Virginia (USA) oder Dublin (Irland) macht die IT-Last bereits über bis zu drei Vierteln des lokalen Stromverbrauchs aus. Das hat Folgen für die lokale Bevölkerung: Der Strom wird teurer, Ressourcen wie Wasser werden knapper und die Netzstabilität ist gefährdet.
3. Apekt Gesellschaftliche Abhängigkeit und Lock-in
Um noch einmal auf den free lunch zurückzukommen: Die Rechnung kommt schon noch. Vermutlich aber erst dann, wenn die Anwender in den Unternehmen, in den Verwaltungen, den Bildungseinrichtungen und den Medien nicht mehr ohne KI arbeiten können. Da nehme ich mich gerne selbst an der Nase: Wäre die KI nicht so günstig, hätte ich nicht damit begonnen, damit zu arbeiten. Jetzt habe ich mich so daran gewöhnt, dass ich auch mehr dafür bezahlen würde.
Sie können sich ja selbst fragen, was passieren würde, wenn OpenAI oder Anthropic die Preise anheben würde: Wären Sie noch in der Lage, zurückzurudern? Das Problem ist, dass die KI sich so rasch und so umfassend verbreitet hat, dass sie nicht mehr nur einige Unternehmen durchdringt, sondern die ganze Gesellschaft. Wir alle können nicht mehr zurückrudern.
Fazit
«Kostenlos» ist, wie immer, eine Illusion. In einem ersten Schritt bezahlen einfach andere die Rechnung: die Umwelt, die Datenproduzenten, die Ghost Workers, die Gesellschaft. KI externalisiert Kosten meisterhaft und macht sie damit unsichtbar. Das ist kein Zufall, sondern Geschäftsmodell. In einem zweiten Schritt dürften uns aber auch die KI-Anbieter eine Rechnung präsentieren. Bloss wird es dann zu spät sein, aus den Prozessen wieder auszusteigen.
Praxistipp
Was können wir Anwenderinnen und Anwender tun? Ich sehe zwei konkrete Punkte. 1) Fragen Sie sich bei jeder KI-Nutzung: Was ist mir dieser Arbeitsschritt wert? Wer übernimmt meine Rechnung? Nutzen Sie bewusst kostenpflichtige und transparente Angebote, die über faire Vergütungsmodelle verfügen. 2) Wir benötigen einen griffigen Schutz des Urheberrechts und eine faire Abgeltung der Urheber, der Medien und der Autorinnen und Autoren durch KI-Anbieter. Die KI-Unternehmen sind mit Lichtgeschwindigkeit unterwegs – unsere Gesetzgeber arbeiten noch im Dampfbahnmodus. Als Konsumentin als Konsument gibt es einen konkreten Schritt den Sie tun können: Bezahlen Sie für Medien. Lösen Sie ein Abo, spenden Sie, kaufen Sie Artikel, Bücher, Zeitschriften. Das hilft sofort.
Basel, 31.03.2026, Matthias Zehnder mz@matthiaszehnder.ch
Nur dank Ihrer Unterstützung sind solche Texte möglich. Herzlichen Dank dafür!
Quellen:
Li, Pengfei; Yang, Jianyi; Islam, Mohammad A.; Ren, Shaolei (2023): Making AI Less „Thirsty“: Uncovering and Addressing the Secret Water Footprint of AI Models, 2023, https://arxiv.org/abs/2304.03271 [31.03.2026].
Strubell, Emma; Ganesh, Ananya; McCallum, Andrew (2019): Energy and Policy Considerations for Deep Learning in NLP, 2019, https://arxiv.org/abs/1906.02243 [31.03.2026].
Energy and AI – Analysis, in: IEA, 2025, https://www.iea.org/reports/energy-and-ai [31.03.2026].
