KI-Denkfehler #10: Viele Führungskräfte glauben, KI könne Verantwortung übernehmen.

Publiziert am 9. September 2025 von Matthias Zehnder

Verständlich – aber grundsätzlich falsch. KI kann handeln, sie kann aber niemals Verantwortung tragen. Juristisch liegt das daran, dass die KI keine Person ist, die Verantwortung übernehmen könnte. KI-Programme mögen noch so selbstbewusst klingen – da ist niemand zu Hause. KI hat kein «Ich», da handelt niemand. Texte, Bilder und Grafiken sind das Resultat einer ausgeklügelten Simulation.

Drei Denkfehler, die ich oft sehe:

1. Denkfehler: «Die KI hat entschieden.»

Nein. Entscheide treffen Menschen – auch wenn die KI den Prozess steuert.
Es kommt auf den Menschen am Computer an.

Wenn eine Bank mit einem KI-Algorithmus über Kreditanträge entscheidet, sagen die Mitarbeitenden gerne: «Die KI hat halt so entschieden.» Tatsächlich waren es die verantwortlichen Menschen in der Bank, die den Algorithmus gewählt, trainiert und eingesetzt haben. Deshalb tragen auch sie die Verantwortung. Dass ein Antrag abgelehnt wird, ist kein autonomer Akt einer Maschine, sondern die Folge menschlicher Vorgaben.

2. Denkfehler: «Die Hersteller haften.»

Nur bedingt. Bei einem spezifischen Einsatz bleibt die Verantwortung meist beim Anwender.
Es kommt auf die Einbettung der KI an.

Angenommen, ein Spital nutzt eine KI zur Analyse von Röntgenbildern. Nehmen wir weiter an, die Software mache einen Fehler und stelle eine falsche Diagnose. Der Hersteller haftet allenfalls für grobe Mängel. Aber ob der Befund in der Behandlung berücksichtigt wird, entscheidet der Arzt oder die Ärztin. Die Verantwortung liegt beim medizinischen Personal am Computer, nicht bei der Softwarefirma.

3. Denkfehler: «KI nimmt mir Entscheidungen ab.»

Absolut nicht. Die KI kann unterstützen, Entscheidungen trifft weiterhin der Mensch.
Es kommt auf dessen Kompetenz an.

Ein HR-Tool schlägt Kandidaten für eine Stelle vor. Natürlich kann die KI Kriterien auswerten und Rankings erstellen. Aber ob ein Mensch ins Team passt, ob seine Werte zur Kultur passen oder ob er Entwicklungspotenzial hat – das kann keine Maschine bewerten. Die Entscheidung bleibt eine Führungsaufgabe.

Die Verantwortung bleibt menschlich

Es gibt kein KI-System, das – wie in einem Science-Fiction-Film – Verantwortung übernehmen könnte. Verantwortung ist keine technische Grösse, sondern eine gesellschaftliche, rechtliche und moralische Dimension. Sie entsteht durch menschliches Handeln, in Regeln, in Prozessen – und in der persönlichen Haltung.

Führung heisst weiterhin, Verantwortung ernst zu nehmen. Gerade im Umgang mit Künstlicher Intelligenz.
Voraussetzung ist allerdings, dass Führungskräfte die nötigen Kompetenzen im Umgang mit KI haben.

Basel, 08.09.2025, Matthias Zehnder mz@matthiaszehnder.ch


Darum habe ich CEO-Sparring entwickelt:

Ein Denkraum auf Augenhöhe – für Führungspersönlichkeiten, die nicht alles wissen müssen, aber die richtigen Fragen stellen wollen.

👉 Ich vergebe fünf Plätze.

📩 Direktnachricht genügt – für Onepager & Einladung zum Erstgespräch.

#Leadership #Strategie #ExecutiveSparring #KünstlicheIntelligenz #KI #Transformation

 

Ein Kommentar zu "KI-Denkfehler #10: Viele Führungskräfte glauben, KI könne Verantwortung übernehmen."

  1. Gesellschaft, Politik und Wirtschaft lassen sich in vielen Bereichen von einer kollektiv organisierten Verantwortungslosigkeit beherrschen. KI kann ein Teil davon sein. Gut, dass Matthias Zehnder darauf aufmerksam macht. Es zu wissen genügt aber nicht. Für eine menschliche Welt braucht es ein anderes Tun.

Schreiben Sie einen Kommentar

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre, wie deine Kommentardaten verarbeitet werden.