KI-Denkfehler #9: Viele Führungskräfte glauben, KI sei objektiv

Publiziert am 2. September 2025 von Matthias Zehnder

Verständlich, aber falsch. Maschinen wirken vielleicht unbestechlich. Sie rechnen nüchtern, sie kennen keine Gefühle, keine Interessen und keine Eitelkeiten. Wer könnte also besser geeignet sein, faire und objektive Entscheidungen zu treffen, als eine computerbasierte Künstliche Intelligenz? Genau das ist der Denkfehler: KI wirkt objektiv, sie ist es aber nicht. Denn sie übernimmt alle Vorurteile, die in den Daten stecken, mit denen sie trainiert wird. Und diese Daten stammen fast immer aus der Vergangenheit – also aus einer Welt voller Ungleichheiten und Verzerrungen.

Dass wir Menschen KI trotzdem Objektivität zuschreiben, hat psychologische Gründe. Wir neigen dazu, wohlformulierte Sätze und Zahlenreihen für glaubwürdig und objektiv zu halten. Wenn eine Maschine ihre Ergebnisse in gutem Deutsch und in Tabellen präsentiert, wirkt das überzeugend. Doch gerade diese scheinbare Neutralität macht die KI gefährlich. Sie verstärkt unsere Bereitschaft, die Vorurteile zu übernehmen, solange sie im Kleid der Statistik daherkommen.

Denkfehler : «KI urteilt ohne Vorurteile.»

Nein. KI übernimmt die Bias der Daten – ob wir wollen oder nicht.
Es kommt auf die Daten an.

Ein Algorithmus lernt aus den Daten, die man ihm gibt. Sind diese Daten verzerrt, wird es auch das Modell sein. Eines der bekanntesten Beispiele dafür ist das Recruiting-System von Amazon. 2018 stellte sich heraus, dass ein KI-gestütztes Bewerber-Tool von Amazon Frauen systematisch benachteiligte. Warum? Das System war mit Lebensläufen aus der Vergangenheit trainiert worden. In der IT-Branche bewarben sich früher vor allem Männer. Die Maschine hatte gelernt: Männlich ist besser. Die Daten waren deshalb nicht objektiv, sondern bildeten ein Vorteil aus der Vergangenheit ab.

Ein anderes Beispiel betrifft Gesichtserkennungssysteme. Studien des MIT Media Lab (Joy Buolamwini, 2018) zeigten, dass die Systeme bei weissen Männern eine Fehlerquote von unter 1 Prozent hatten – bei dunkelhäutigen Frauen lag sie bei über 30 Prozent. Das Problem war nicht die KI, sondern die Daten: die KI war überwiegend mit weissen Gesichtern trainiert worden.

Die Beispiele zeigen: KI ist nicht neutraler als die Gesellschaft, aus der ihre Daten stammen. Wer von «objektiver KI» spricht, verwechselt Statistik mit Wahrheit.

Denkfehler : «KI sorgt für faire Entscheidungen.»

Nur, wenn Fairness vorher definiert und programmiert wird.
Es kommt auf die Regeln an.

Fairness ist keine Eigenschaft, die eine Maschine von sich aus mitbringt. Sie ist ein Wert – und Werte müssen bewusst gestaltet werden. Fehlt diese Gestaltung, setzt KI einfach die Vergangenheit fort.

Ein prominentes Beispiel war die Apple Card von Goldman Sachs und Apple (2019). Kunden stellten fest, dass Frauen deutlich niedrigere Kreditlimits erhielten als Männer – und zwar selbst dann, wenn sie ein höheres Einkommen und eine bessere Bonität hatten. Dahinter steckte keine böse Absicht. Der Algorithmus hatte lediglich die Kreditvergabepraktiken der Vergangenheit reproduziert – und damit auch die alten Diskriminierungen.

Noch drastischer zeigt sich das im amerikanischen Justizsystem. Dort wurde das System Compas eingesetzt, um Rückfallrisiken von Straftätern einzuschätzen. Eine Untersuchung von ProPublica ergab 2016: Schwarze Angeklagte wurden systematisch als risikoreicher eingestuft als weisse, obwohl die tatsächlichen Rückfallquoten das nicht bestätigten.

Fairness entsteht nicht automatisch, sondern muss bewusst in die Systemen als Regel eingebaut und auch immer wieder überprüft werden. Wer glaubt, KI sorge von selbst für gerechte Entscheidungen, verkennt die Verantwortung, die Menschen tragen.

Denkfehler : «KI ersetzt menschliche Subjektivität.»

Im Gegenteil: Sie verstärkt sie oft.
Es kommt auf die Kontrolle an.

Viele Führungskräfte hoffen, KI könne die menschliche Subjektivität aus Entscheidungen herausfiltern. Die Erfahrung zeigt das Gegenteil: KI kann subjektive Muster sogar noch verstärken – nur wirken sie dann objektiv, weil sie im Kleid der Statistik auftreten.

Das sieht man besonders deutlich in den Empfehlungsalgorithmen von Social Media. Plattformen wie YouTube oder Facebook setzen auf KI, um Inhalte zu empfehlen. Das Ziel: Aufmerksamkeit maximieren. Das Ergebnis: Echokammern und Filterblasen. Statt Subjektivität zu beseitigen, verstärkt die KI unsere Vorlieben und Vorurteile – weil das ökonomisch profitabel ist.

Hier liegt die eigentliche Gefahr: Subjektive Verzerrungen verschwinden nicht, wenn sie algorithmisch gegossen werden. Sie werden unsichtbar – und damit umso mächtiger. Genau deshalb ist menschliche Kontrolle entscheidend.

Die grosse Illusion der Objektivität

KI wirkt unbestechlich. Sie spricht in Zahlen und Tabellen, sie liefert ohne Zögern Antworten, und sie scheint keine Interessen zu haben. Doch das ist eine Illusion. In Wahrheit ist KI so vorurteilsbeladen wie die Daten, mit denen sie trainiert wurde. Sie ist so fair, wie es die Regeln vorschreiben, die wir ihr geben. Und sie ist so subjektiv, wie es die wirtschaftlichen Interessen verlangen, unter denen sie läuft.

Für Führungskräfte bedeutet das: Die Verantwortung lässt sich nicht an eine Maschine delegieren. Objektivität kommt nicht aus der Technik, sondern aus den Regeln, den Prozessen und der Kontrolle, die wir Menschen ausüben. Wer KI für neutral hält, verkennt die Führungsaufgabe und läuft Gefahr, alte Ungerechtigkeiten zu replizieren.

Basel, 01.09.2025, Matthias Zehnder mz@matthiaszehnder.ch


Darum habe ich CEO-Sparring entwickelt:

Ein Denkraum auf Augenhöhe – für Führungspersönlichkeiten, die nicht alles wissen müssen, aber die richtigen Fragen stellen wollen.

👉 Ich vergebe nur fünf Plätze.

📩 Direktnachricht genügt – für Onepager & Einladung zum Erstgespräch.

#Leadership #Strategie #ExecutiveSparring #KünstlicheIntelligenz #KI #Transformation

Quellen:

Mattu, Julia Angwin, Jeff Larson,Lauren Kirchner,Surya Machine Bias, in: ProPublica, https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing [02.09.2025].
online, heise (2025): KI-Systeme bevorzugen eigene Texte: Studie warnt vor „Anti-Human-Bias“, in: heise online, 2025, https://www.heise.de/news/KI-Systeme-bevorzugen-eigene-Texte-Studie-warnt-vor-Anti-Human-Bias-10544419.html [21.08.2025].
Wilke, Felicitas (2018): Bewerbungsroboter: Künstliche Intelligenz diskriminiert (noch), in: Die Zeit, 2018, https://www.zeit.de/arbeit/2018-10/bewerbungsroboter-kuenstliche-intelligenz-amazon-frauen-diskriminierung [02.09.2025].
Study finds gender and skin-type bias in commercial artificial-intelligence systems, in: MIT News | Massachusetts Institute of Technology, 2018, https://news.mit.edu/2018/study-finds-gender-skin-type-bias-artificial-intelligence-systems-0212 [02.09.2025].
Gender Bias Complaints against Apple Card Signal a Dark Side to Fintech | Working Knowledge, in: Harvard Business School, 2019, https://www.library.hbs.edu/working-knowledge/gender-bias-complaints-against-apple-card-signal-a-dark-side-to-fintech [02.09.2025].
Facial Recognition Is Accurate, if You’re a White Guy – The New York Times, https://www.nytimes.com/2018/02/09/technology/facial-recognition-race-artificial-intelligence.html [02.09.2025].

 

Ein Kommentar zu "KI-Denkfehler #9: Viele Führungskräfte glauben, KI sei objektiv"

Schreiben Sie einen Kommentar

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre, wie deine Kommentardaten verarbeitet werden.