KI-Denkfehler #14: KI ist neutral
Künstliche Intelligenz wirkt auf den ersten Blick unbestechlich. Sie berechnet, was stimmt; sie wägt ab, was passt; sie liefert Resultate, die nach mathematischer Klarheit aussehen und orthografisch perfekt sind. Kein Mensch, keine Emotion, keine Ideologie, scheinbar nur Logik. Genau das macht sie so verführerisch: die Hoffnung, endlich eine Technologie zu haben, die objektiv urteilt und frei ist von den Fehlern und Vorurteilen, die Menschen nun einmal haben.
Doch diese Vorstellung ist ein Trugbild. Jede KI ist ein Produkt von Interessen und das gleich auf mehreren Ebenen: der Interessen und Absichten jener, die sie entwickeln, der Daten, mit denen sie trainiert wird, und der Ziele, die sie erreichen soll. Das beginnt bei scheinbar harmlosen Anwendungen wie Suchmaschinen und Sprachassistenten und reicht bis zu politischen oder wirtschaftlichen Systemen, die unsere Wahrnehmung der Welt formen.
Die Behauptung, KI sei neutral, ist deshalb mehr als nur ein Irrtum: Es ist ein Schachzug der Anbieter, der dazu führt, dass wir den Programmen zu viel Macht einräumen. Wer die Behauptung glaubt, gibt die Deutungshoheit über Werte und Narrative an Programme ab, die von Menschen mit ganz bestimmten Interessen und Erfahrungen und aus individuellen Perspektiven auf die Welt geformt worden sind.
Drei Denkfehler im Detail:
Denkfehler 1: «Algorithmen sind objektiv.»
Das klingt zunächst plausibel: Algorithmen sind Regeln. Algorithmen beinhalten die Anweisungen, wie der Computer rechnen, vergleichen und bewerten muss und das ohne Emotionen oder persönliche Vorlieben. Doch diese Regeln existieren nie im luftleeren Raum. Jede Regel ist auf ein Ziel hin formuliert, und jedes Ziel beinhaltet eine Entscheidung.
Algorithmen werden nicht in der Natur gefunden, sondern von Menschen geschrieben. Menschen entscheiden, welche Daten in ein Modell einfliessen, welche Gewichtungen gelten und welche Ergebnisse als «richtig» gewertet werden. Diese Entscheidungen sind nicht neutral, sondern Ausdruck von Erfahrung, Perspektive und damit ein Vollzug von Macht.
Ein Beispiel: Wenn ein Unternehmen eine KI entwickelt, die Bewerbungen vorsortiert, lernt das System aus Daten. Diese Daten stammen notgedrungen aus der Vergangenheit. Die KI eignet sich mit den Daten auch die Vorurteile, die Ungleichgewichte und Diskriminierungen an, die in den Daten stecken. Selbst wenn der Algorithmus als Regel neutral wäre, könnte er nicht anders, also die Vorurteile der Vergangenheit zu replizieren. KI-Anbieter versuchen deshalb, auf Regelebene in die Daten einzugreifen. Das Resultat sind korrigierende Algorithmen.
Objektivität ist deshalb nicht das Resultat von Algorithmen, sondern eher ein menschliches Ideal. Wer glaubt, dass Programme objektiv sind, verwechselt Berechnung mit Wahrheit.
Denkfehler 2: «KI entscheidet rational.»
Das klingt nach einem Fortschritt: Endlich eine Instanz, die sich nicht von Gefühlen, Vorlieben oder Ideologien leiten lässt. Eine Maschine, die nüchtern abwägt, was am meisten Sinn ergibt. Doch auch Rationalität ist kein Naturgesetz, sondern ein kulturelles Konstrukt, das davon abhängt, welche Ziele wir setzen und welche Werte wir in eine Entscheidung einbeziehen.
In jedem KI-System steckt eine Vielzahl solcher Wertentscheidungen. Entwickler müssen festlegen, was ein «guter» oder «richtiger» Output ist, welche Fehler toleriert werden und wie Zielkonflikte aufgelöst werden sollen. Eine KI, die Inhalte sortiert, kann etwa auf maximale Aufmerksamkeit oder auf inhaltliche Qualität optimiert werden – beides ist rational, folgt aber ganz unterschiedlichen Kriterien.
Wenn wir sagen, KI entscheide «rational», meinen wir in Wahrheit: Sie folgt der Logik, die ihre Entwickler ihr eingeschrieben haben. Sie maximiert, was messbar ist, und ignoriert, was sich schwer quantifizieren lässt. KI bewegt sich deshalb in einem Datenraum und kann nichts anfangen mit Empathie, Fairness oder Verantwortung. Damit wirkt sie vernünftig, ist aber oft blind für das, was menschliche Vernunft ausmacht: das Abwägen zwischen konkurrierenden Werten.
Rationalität ist deshalb kein Garant für Gerechtigkeit. Eine KI kann konsequent logisch sein und trotzdem fundamental falsch liegen.
Denkfehler 3: «Technologie hat keine Agenda.»
Technologie tritt uns oft als neutrale Infrastruktur entgegen: als Werkzeug, das wir nutzen können, wie wir wollen. Doch in Wahrheit ist jedes technische System auf ein Ziel hin gebaut. Dieses Ziel ist nie unschuldig.
Künstliche Intelligenz wird von Unternehmen, Forschungseinrichtungen und Staaten entwickelt, die jeweils eigene Interessen verfolgen. Wer eine Suchmaschine betreibt, verdient am Klick; wer soziale Netzwerke entwickelt, profitiert von Aufmerksamkeit; wer KI-Waffen baut, strebt nach militärischer Überlegenheit. Die Technik folgt also nicht einer abstrakten Idee von Fortschritt, sondern ökonomischen, politischen oder strategischen Interessen.
Auch ihre Architektur trägt diese Logik in sich: Was gemessen, belohnt und priorisiert wird, formt das Verhalten der Systeme und damit auch das der Menschen, die sie nutzen. So wird Technologie zum Träger einer Agenda, selbst wenn sie vorgibt, nur harmlose Werkzeuge bereitzustellen.
Ein Schritt in Richtung Neutralität bieten quelloffene und adaptierbare Systeme. Das sind Programme, deren Quellcode offen liegt und die sich beliebig anpassen lassen. Das ermöglicht es, die Technologie zu prüfen und zu hinterfragen. Heute ist die Frage nicht, ob eine Agenda existiert, sondern wessen Agenda wir folgen.
Fazit
Neutralität ist deshalb keine Eigenschaft von Künstlicher Intelligenz, sondern eine Behauptung. Sie dient oft dazu, Vertrauen zu erzeugen und Verantwortung zu verschleiern. Denn wer glaubt, Technologie sei neutral, fragt sich nicht mehr, wem sie nützt, was sie bewirkt und welche Werte sie stillschweigend durchsetzt.
KI ist kein Spiegel der Welt, sondern ein Spiegel ihrer Daten. Dieser Spiegel ist von Menschen, Unternehmen und Institutionen mit sehr konkreten Interessen hergestellt worden. Wer KI gedankenlos einsetzt, übernimmt blind die einprogrammierten Werte.
Wer behauptet, die KI sei neutral, hat schon Partei ergriffen.
Basel, 21.10.2025, Matthias Zehnder mz@matthiaszehnder.ch
Darum habe ich CEO-Sparring entwickelt: Ein Denkraum auf Augenhöhe – für Führungspersönlichkeiten, die nicht alles wissen müssen, aber die richtigen Fragen stellen wollen.
👉 Ich vergebe nur fünf Plätze.
📩 Direktnachricht genügt – für Onepager & Einladung zum Erstgespräch.
Bleiben Sie auf dem Laufenden:
Hier den Wochenkommentar abonnieren.
- Hinweis auf den neuen Wochenkommentar
- Ein aktueller Sachbuchtipp
- Ein Roman-Tipp
- Das neue Fragebogeninterview
Nur dank Ihrer Unterstützung ist der Wochenkommentar möglich. Herzlichen Dank dafür!
Ein Kommentar zu "KI-Denkfehler #14: KI ist neutral"
Was hier ebenso stichhaltig begründet wie wertvoll zutreffend zur KI ausgeführt ist, gilt für sozusagen alle Technologie. Wer leibhaftig und mit natürlicher Intelligenz – also mit Herz, Kopf, Hand und Fuss – unterwegs ist, dürfte nicht so leicht darauf hereinfallen.