KI-Denkfehler #19: KI löst ethische Probleme

Publiziert am 26. November 2025 von Matthias Zehnder

Die Behauptung, Künstliche Intelligenz könne ethische Probleme lösen, verkennt den Kern des Ethischen. Maschinen lösen Rechenaufgaben, können aber nicht mit Zielkonflikten umgehen. Ethische Dilemmata entstehen, weil Menschen auf unterschiedliche, ja sich widersprechende Werte setzen und begründen müssen, warum sie eine bestimmte Entscheidung fällen. KI kann solche Konflikte weder bereinigen noch befrieden. Sie ist nicht der Schiedsrichter, sondern Teil des Problems.

Seit KI-Systeme immer schneller, präziser und umfassender antworten, wächst der Wunsch, ihnen auch heikle Entscheidungen zu überlassen. In Medizin, Verwaltung, Journalismus und Justiz hoffen viele, die Technik könne auf Knopfdruck jene Klarheit liefern, die vielen Menschen oft fehlt. Algorithmen erscheinen neutral, verlässlich, unbestechlich. Vor allem aber versprechen sie, die Last der moralischen Verantwortung von den menschlichen Schultern zu nehmen.

Wer dem zustimmt, erliegt einem Missverständnis. KI ist kein moralisches Subjekt. Die Programme verfügen nicht über Werte und schon gar nicht die Fähigkeit, zwischen ihnen abzuwägen. Die raschen, eindeutigen Antworten wirken zwar objektiv, basieren aber lediglich auf Wahrscheinlichkeit. Ethische Konflikte lassen sich nicht durch Rechenregeln auflösen. Sie müssen ausgehandelt werden: zwischen Menschen, die Verantwortung tragen und sich bewusst dem Risiko aussetzen, falsch zu entscheiden.

Gerade deshalb erscheint vielen Menschen der Gedanke verführerisch, moralische Entscheidungen an eine Maschine zu delegieren. Doch eine Maschine kann keine Verantwortung tragen und deshalb auch nicht wirklich entscheiden. Wer das Urteil dennoch an die Maschine delegiert, übernimmt genau damit die Verantwortung für einen undurchschaubaren Mechanismus ohne menschlichen Bezugspunkt.

Denkfehler 1: Ethik ist berechenbar

Der Glaube, ethische Fragen liessen sich algorithmisch lösen, entsteht oft aus der Bewunderung für die formale Präzision von Computern. Maschinen arbeiten doch so logisch und konsequent. Aber sie berechnen nur Wahrscheinlichkeiten, sortieren Daten und ziehen Schlüsse aus Mustern. Rechenkraft ist aber keine moralische Urteilskraft: Wahrscheinlichkeit und Logik ersetzen Ethik eben gerade nicht.

Ethische Konflikte entstehen nicht, weil wir unlogisch handeln, sondern weil legitime Werte miteinander in Konkurrenz stehen und wir deshalb abwägen müssen. Etwa Freiheit gegen Sicherheit, Fairness gegen Effizienz, Fürsorge gegen Autonomie. Solche Konflikte lassen sich nicht mit Rechenregeln auflösen. Wir Menschen müssen abwägen, andere Perspektiven einnehmen und auf unsere Erfahrung vertrauen. Genau das kann keine Maschine.

Der Traum von einer berechenbaren Ethik ist deshalb eigentlich ein falsches Verständnis davon, was Ethik ausmacht. Moralisches Handeln beginnt dort, wo Logik nicht mehr ausreicht, wo wir Spannungen aushalten müssen und Entscheidungen nicht auf simple Formeln reduzieren können. KI kann uns dafür Daten liefern, aber keine moralische Orientierung bieten.

Denkfehler 2: KI urteilt neutral

Die Hoffnung, KI könne schwierige Entscheidungen objektiver treffen als Menschen, beruht auf einem hartnäckigen Missverständnis. Wir verwechseln Distanz mit Neutralität. Die KI ist nicht neutral. Sie reproduziert die Muster, die in ihren Daten stecken und verstärkt dadurch Vorurteile.

Wenn ein Mensch eine Entscheidung fällt, und sei es die Wahl zwischen Käse und Tiramisu zum Dessert, steht dieser Entscheid immer in einem Kontext. Die Maschine sieht diesen Kontexte nicht. Was nach Objektivität aussieht, ist nur Distanz und simple Fortschreibung vergangener Entscheidungen. Eine KI kann nicht zwischen Vorurteil und Wert unterscheiden. Sie kennt nur Korrelationen, hat aber keine Ahnung von Bedeutung.

Wenn wir uns so sehr technische Neutralität für unsere moralischen Entscheidungen wünschen, dann ist das kein Ausdruck der Stärke der KI, sondern Ausdruck der Schwäche von uns Menschen. Wir hoffen, uns der Mühsal moralischer Abwägung entziehen zu können, indem wir die Aufgabe einem System übertragen, das keine Interessen hat. Doch genau darin liegt die Gefahr: Eine Maschine ohne Interessen kennt auch keine Verantwortung. Wer ethische Urteile automatisiert, erzeugt nicht mehr Fairness, sondern drückt nur auf sehr effiziente Weise seine eigene Unzulänglichkeit aus.

Denkfehler 3: Technik ersetzt das Gewissen

Die Vorstellung, Maschinen könnten uns die Last moralischer Entscheidungen abnehmen, ist verführerisch. Technische Systeme erscheinen konsequent, unaufgeregt, unbestechlich. Genau das macht sie attraktiv für Situationen, in denen wir selbst unsicher sind oder die Verantwortung scheuen. Doch diese Entlastung ist eine Illusion. Eine KI kann keine Verantwortung tragen, weil sie kein Bewusstsein für die Folgen hat. Sie kann weder Schuld empfinden noch Scham. Sie kennt keine Zweifel und keinen inneren Widerstand gegen fragwürdige Entscheidungen.

Ethisches Entscheiden besteht nicht darin, simple Regeln anzuwenden. Es wird oft erst bei Spannungen und Ambivalenzen nötig. Manchmal sind Entscheide gegen die Logik nötig, zum Beispiel im Sinn der Menschlichkeit. Kein Algorithmus kann diese Zumutung übernehmen. Selbst dort, wo Maschinen Entscheidungen formal korrekt treffen, bleibt die Verantwortung bei uns, denn die Folgen treffen Menschen, nicht die KI.

Wer sein eigenes moralisches Urteil mit Technik ersetzen will, zieht sich selbst den Stuhl unter dem Hintern weg. Technik kann uns (oft) unterstützen, aber sie kann das Ringen um eine Entscheidung in einer ambivalenten Situation nicht ersetzen. Wer sein Gewissen einer Maschine übergeben möchte, entmündigt sich nur selbst.

Fazit

KI kann viele Arbeitsschritte beschleunigen, besser strukturieren und Zusammenhänge sichtbar machen. Ethische Konflikte kann die KI nicht lösen. Denn ethische Probleme sind nicht schwierig, weil für ihre Lösung besonders viel Rechenleistung erforderlich wäre, sondern weil sich konkurrierende Werte, widersprüchliche Erwartungen und unterschiedliche Erfahrungen gegenüberstehen. Maschinen können uns Hinweise liefern, sie können uns aber die Entscheidungen nicht abnehmen.

Ethik ist keine technische Disziplin. Moralische Entscheidungen basieren oft auf einem gesellschaftlichen Aushandlungsprozess. Die moralische Verantwortung lässt sich nicht an die Maschine delegieren, weil keine Maschine Verantwortung tragen kann. Moralische Entscheidungen verlangen nach Menschen, die wissen und fühlen, was sie tun. Zu beidem ist eine KI nicht fähig.

26.11.2025, Matthias Zehnder mz@matthiaszehnder.ch

Bleiben Sie auf dem Laufenden:

Abonnieren Sie meinen Newsletter.

  • Hinweis auf den neuen Wochenkommentar
  • Ein aktueller Sachbuchtipp
  • Ein Roman-Tipp
  • Das neue Fragebogeninterview

Nur dank Ihrer Unterstützung ist der Wochenkommentar möglich. Herzlichen Dank dafür!


 

 

Schreiben Sie einen Kommentar

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre, wie deine Kommentardaten verarbeitet werden.