Warum wir eine digitale Ethik brauchen

Publiziert am 20. August 2021 von Matthias Zehnder

Bindestrich-Philosophie hat einen schlechten Ruf. Das gilt auch für die Ethik: Ob Medizin-Ethik, Tier-Ethik oder Öko-Ethik – letztlich ist es immer Ethik, angewandt auf ein Sachgebiet. Auf den ersten Blick sieht auch die digitale Ethik nach einer dieser Bindestrich-Philosophien aus. Doch die Digitalisierung fordert uns Menschen grundsätzlicher heraus. Man könnte sogar sagen: Sie entzieht in manchen Bereichen dem Menschsein den Boden. Zudem führt die digitale Ethik einen ganz neuen Aspekt ein: Wir müssen nicht nur für Menschen ethische Regeln entwickeln, sondern auch für Maschinen und uns deshalb aus einer ganz neuen Perspektive mit ethischen Fragen beschäftigen. Ich habe diese Woche an der Berner Fachhochschule BFH Student:innen einen ganzen Tag lang eingeführt in die digitale Ethik – einige grundsätzliche Gedanken teile ich auf diesem Weg auch mit Ihnen.

Bevor wir uns mit digitaler Ethik beschäftigen können, müssen wir klären, was Ethik ist. Immanuel Kant hat das Feld der Philosophie mit drei grundsätzlichen Fragen abgesteckt:

  1. Was kann ich wissen?
  2. Was soll ich tun?
  3. Was darf ich hoffen?

Die erste Frage «Was kann ich wissen?» beschäftigt sich mit der Erkenntnistheorie: Was sind Wahrheit und Wirklichkeit? Ist es überhaupt möglich, sie zu erkennen? Welche Grenzen sind dem Verstand gesetzt? Auch diese Fragen stellen sich in der digitalen Welt neu, aber darum geht es heute nicht.

Die dritte Frage «Was darf ich hoffen?» war Kant selbst wohl nicht ganz geheuer. Er präzisiert sie: Was darf ich berechtigterweise hoffen? Wenn Glück das ist, worauf ich hoffe, woher nehme ich das Recht, auf mein Glück zu hoffen? Und was heisst Glück überhaupt? Auch diese Fragen stellen sich in einer globalisierten Welt neu – der Zusatz berechtigterweise beinhaltet nämlich auch: Auf was zu hoffen ist gerecht?

Ethik beschäftigt sich mit der zweiten Kantischen Frage: «Was soll ich tun?» Ethik ist also praktische Philosophie. Dabei geht es nicht einfach um die Frage, was «gut» ist und was «böse». Es geht darum, das eigene Handeln begründen zu können. Ethik ist also eine Theorie des richtigen Handelns. Es ist nicht einfach moralisches Räsonieren, sondern eine wissenschaftliche Disziplin, strukturiertes Nachdenken darüber, was wir tun sollen und was nicht.

Unterschiedliche ethische Perspektiven

Was also sollen wir tun? Die Philosophie hat sehr unterschiedliche Massstäbe entwickelt, wie eine Handlung beurteilt werden soll. Sokrates zum Beispiel ging davon aus, dass in jedem Menschen dasselbe rationale Verständnis und dieselbe Definition für Gerechtigkeit, Liebe, Tugend und Selbsterkenntnis angelegt sind. Es geht also darum, das Gute in sich selbst aufzuspüren und danach zu handeln. Aristoteles entwickelte diese Sicht in seiner Nikomachischen Ethik weiter. Sokrates und Aristoteles stellen die Tugend ins Zentrum ihrer Ethik: Sie messen eine Handlung daran, ob sie zum Beispiel den Kardinaltugenden Klugheit, Gerechtigkeit, Tapferkeit und Mässigung entspricht. Man nennt diese Art von Ethik deshalb Tugendethik.

Wie Sokrates und Aristoteles beurteilt Immanuel Kant eine Handlung, ob sie an sich gut oder schlecht ist. Er formuliert dazu seinen berühmt gewordenen kategorischen Imperativ: Handle nur nach derjenigen Maxime, durch die du zugleich wollen kannst, dass sie ein allgemeines Gesetz werde. Handle also nur so, dass du immer so handeln kannst – respektive: lass dich nur von Regeln leiten, die du zu einem allgemeinen Gesetz erklären kannst. Weil Kant dabei die Maxime ins Zentrum stellt, wird seine Ethik als Pflichtethik bezeichnet – man könnte auch von moralischem Absolutismus sprechen.

Ganz anders gingen Jeremy Bentham (1748 – 1832) und John Stuart Mill (1806 – 1873) vor: Sie stellen nicht die Handlung ins Zentrum ihrer Bewertung, sondern ihren Zweck oder ihre Konsequenzen. Man spricht deshalb von Nutzethik. Ziel ist dabei nicht einfach die Maximierung des eigenen Nutzens, sondern das «grösste Glück der grössten Zahl» (Jeremy Bentham). Etwas vereinfacht gesagt, ist eine Handlung dann gut, wenn sie möglichst vielen Menschen nützt.

Das Trolley-Problem

Es kann ein riesiger Unterschied sein, ob wir, wie Aristoteles, Sokrates und Kant, eine Handlung an sich beurteilen oder uns, wie Bentham und Mill, ihre Konsequenzen ansehen. Ein berühmtes philosophisches Dilemma, an dem man das zeigen kann, ist das Trolley-Problem: Eine Strassenbahn (engl. «Trolley») ist ausser Kontrolle geraten und droht, fünf Personen zu überrollen. Durch Umstellen einer Weiche kann ein Gleisarbeiter die Strassenbahn auf ein anderes Gleis umleiten. Unglücklicherweise befindet sich dort eine weitere Person. Darf der Gleisarbeiter die Weiche umlegen und den Tod einer Person in Kauf nehmen, um das Leben von fünf Personen zu retten?

Eine fürchterliche Entscheidung, ich weiss. Was würden Sie sagen? Darf er den Hebel umlegen und fünf Menschenleben retten?

Sokrates, Aristoteles und Kant sagen: Nein! Das Umlegen des Hebels bedeutet letztlich, dass der Arbeiter eine Person tötet. Diese Handlung ist (für sich genommen) ethisch verwerflich. Die Zweckethik ist ganz anderer Meinung: Weil das Ziel das «grösste Glück der grössten Zahl» ist, muss der Gleisarbeiter den Hebel umlegen – der Verlust eines Menschenlebens ist weniger schlimm als der Verlust von fünf Menschenleben.

Das Organ-Problem

Jetzt sagen sie vielleicht: Das schafft auch nur die Philosophie, es sich dabei so schwer zu machen. Ist doch klar, dass der Gleisarbeiter den Hebel umlegen muss. Er muss die fünf Menschen unbedingt retten, auch wenn der Preis ein Menschenleben ist. Wenn er es nicht machen würde, wäre das wohl Tötung der fünf Menschen durch Unterlassung! Wenn Sie in etwa das gedacht haben, dann schauen Sie sich das folgende Problem an.

Ein Chirurg hat fünf Patienten. Alle sind schwer krank und können nur durch eine Organtransplantation gerettet werden. Jeder der fünf benötigt ein anderes Organ. Unglücklicherweise stehen dafür aber keine Spenderorgane zur Verfügung. Da wird wegen einer Bagatelle ein junger Obdachloser eingeliefert. Der Arzt stellt fest, dass dessen Organe zu seinen fünf todkranken Patienten passen. Niemand würde es bemerken, wenn der Obdachlose verschwände. Halten Sie es für richtig, dass der Arzt den einen Obdachlosen ausschlachtet, um dessen Organe an die fünf todkranken Patienten zu verteilen und so ihr Leben zu retten?

Rein rechnerisch ist die Ausgangslage dieselbe wie beim Trolley-Problem: Sind Sie bereit, ein Menschenleben zu opfern, um fünf andere Menschenleben zu retten? Intuitiv beurteilen wir diese Situation aber völlig anders: Der Chirurg darf, anders als der Gleisarbeiter, das eine Leben nicht für die anderen fünf einsetzen. Offensichtlich beurteilen wir die Handlung des Chirurgen aus einer anderen Perspektive als die Handlung des Gleisarbeiters: Beim Trolleybus-Problem schauen wir auf die Konsequenzen der Handlung, wählen also die nutzethische Perspektive, beim Chirurgen wählen wir die tugend- oder pflichtethische Sicht und konzentrieren uns nur auf seine Handlung.

Das ist Ethik: Die Analyse von Handlungen – und das Abwägen von richtig und falsch nach ganz bestimmten Perspektiven. Wichtig ist dabei, dass wir uns der Perspektive immer bewusst sind. Es gibt von Wolfang Borchert eine bittere Kürzestgeschichte, die zeigt, was passiert, wenn diese beiden ethischen Perspektiven durcheinandergeraten. Die Geschichte lautet: «Als der Krieg aus war, kam der Soldat nach Haus. Aber er hatte kein Brot. Da sah er einen, der hatte Brot. Den schlug er tot. Du darfst doch keinen totschlagen, sagte der Richter. Warum nicht, fragte der Soldat.»

Und warum brauchen wir eine digitale Ethik?

Ethik ermöglicht es also, sich systematisch mit solchen Fragen zu beschäftigen. Aber warum brauchen wir eine digitale Ethik? Schliesslich lässt sich das ethische Denken und seine Prinzipien sicher auch auf die digitale Welt anwenden, oder?

Es gibt zwei gewichtige Gründe, warum wir eine digitale Ethik brauchen. Das erste Argument betrifft die Welt, die sich durch die Digitalisierung verändert hat. Natürlich hat sich die Welt in der Geschichte immer wieder verändert. Die Digitalisierung hat uns aber mit einer Reihe von Veränderungen konfrontiert, welche die Welt, in der wir uns bewegen, quasi unmenschlich gemacht haben. So hebt die Digitalisierung zum Beispiel den Raum auf. Im Internet sind alle Orte auf der Welt gleich weit weg – ein Mausklick weit. Wir alle haben in der Coronakrise intensiv erlebt, was Telepräsenz heisst: Wir können über digitale Kanäle den Raum aufheben und gleichzeitig (zum Beispiel über eine Videokonferenz oder einen Chatraum) an einem anderen Ort «sein». Menschen sind körperliche Wesen und immer an einen Ort, an die Geografie, den Raum gebunden – in diesem Sinne hebt die Digitalisierung eine wichtige menschliche Eigenschaft auf.

Eine andere menschliche Eigenschaft ist unsere Begrenztheit: Wir haben eine begrenzte Wahrnehmung, unser Gehirn hat begrenzte Verarbeitungskapazitäten, wir haben ein begrenztes Gedächtnis. Die Digitalisierung hebt diese Beschränkungen weitgehend auf. Wir können plötzlich beliebig viele Daten verarbeiten, haben ein unendliches Gedächtnis und steigern unsere Rechenkraft exponentiell. Wir leben also zunehmend in einer Welt, die von «unmenschlichen» Regeln geprägt ist. Wir müssen für diese Welt neu über ethische Fragen nachdenken. Wir brauchen neue ethische Regeln für diese Welt, die Aspekte abstecken wie Datenschutz, Privatsphäre, Überwachung und Transparenz.

Ethik für Maschinen

Noch etwas ist in der digitalen Welt fundamental anders. Bis jetzt lautete die kantische Frage: «Was soll ich tun?» In der digitalen Welt lautet die Frage immer häufiger: «Was soll der Computer tun?» Ich denke dabei weniger daran, dass ein selbstfahrendes Auto mit dem Trolley-Problem konfrontiert werden könnte. Das auch. Das Anwendungsfeld ist aber viel breiter: Jeder Algorithmus, der Entscheidungen fällt, sollte ethisch durchdacht sein – und sei es nur ein banaler Roboter-Rasenmäher. Vor allem denke ich an die Algorithmen, die digitale Medien wie Facebook oder Onlinemedien steuern. Diese Algorithmen sollten nicht nur ethisch durchdacht sein – es sollte auch transparent sein, was sie tun. Fast drei Milliarden Menschen weltweit nutzen Facebook – ausserhalb des Unternehmens weiss aber niemand so genau, nach welchen Regeln Facebook die Inhalte aufbereitet, die das Netzwerk uns zeigt. Ähnliches gilt für viele Zeitungen im Internet. Bei der gedruckten Zeitung konnten wir davon ausgehen, dass die Zeitungsmacher uns auf den Papierseiten jene Informationen zeigen, die heute relevant und wichtig sind. Online ist das anders: Die meisten Onlinemedien zeigen uns jene Informationen, von denen sie davon ausgehen, dass wir sie anklicken werden. Das ist ein wichtiger Unterschied – informiert werden wir darüber aber nicht.

Der grosse Unterschied zwischen einer Maschine und einem Menschen ist: Die Maschine hat keine Intuition, keine Empathie, kein Gefühl. Eine Maschine kann nicht im Moment aus dem Bauch heraus entscheiden. Wenn ein Mensch ein Auto steuert und in eine Situation gerät, die dem Trolleybus-Problem ähnelt, entscheidet er in Bruchteilen einer Sekunde, auch wenn er sich die Situation vorher nie überlegt hat. Eben: aus dem Bauch heraus. Ein Computer kann das nicht. Einem Computer müssen die Programmierer vorher sagen, wie er sich verhalten soll – oder welche Routinen in einer unbekannten Situation ablaufen sollen. Das setzt seitens der Programmierer Kenntnisse über ethische Fragen voraus. Und was für die Programmierer von selbstfahrenden Autos gilt, das gilt für jedes Programm: Wir lagern damit Entscheidungen aus. Das heisst nicht, dass der Computer die Verantwortung übernimmt. Es heisst, dass wir, um der Verantwortung gerecht zu werden, uns vorher schon die ethischen Überlegungen dazu machen müssen. Das gilt für jedes Programm, für jeden Algorithmus.

Die digitalisierte Welt erfordert neue ethische Regeln und wir müssen diese Regeln nicht mehr nur für Menschen, sondern auch für Maschinen entwickeln. Deshalb brauchen wir eine digitale Ethik. Und es wäre wichtig, dass heute nicht nur Programmierer, sondern alle Führungskräfte eine Grundvorstellung von Ethik und ethischem Entscheiden haben. Damit sie wissen, was sie tun.

Basel, 20. August 2021, Matthias Zehnder mz@matthiaszehnder.ch

PS: Nicht vergessen – Wochenkommentar abonnieren. Kostet nichts, bringt jede Woche ein Mail mit dem Hinweis auf den neuen Kommentar und einen Buchtipp. Einfach hier klicken. Und wenn Sie den Wochenkommentar unterstützen möchten, finden Sie hier ein Formular, über das Sie spenden können.

PPS: Wenn Sie den Wochenkommentar nur hören möchten, gibt es jetzt hier eine Audioversion (noch im Experimentalstadium):


Quellen

Bild: ©Brian – stock.adobe.com

Grimm, Petra; Keber, Tobias; Zöllner, Oliver (2021): Digitale Ethik. Leben in vernetzten Welten. Reclam Kompaktwissen XL. Ditzingen: Reclam Verlag 2021.

Pieper, Annemarie (2017): Einführung in die Ethik. Tübingen: Uni-Taschenbücher GmbH, & A. Francke Verlag 2017

Zehnder, Matthias (2021): Einführung in die digitale Ethik. Mit Übungen. Bern: 2021

Zehnder, Matthias (2021): Workshop digitale Ethik für Verwaltungsräte und Führungskräfte. Basel: 2021

6 Kommentare zu "Warum wir eine digitale Ethik brauchen"

  1. Vielen Dank für die Einführung. Ich nehme an, diese Fragen werden immer intensiver diskutiert werden. Ein früher Versuch waren die Regeln für Roboter, welche Isaac Asimov in seinen Science Fiction Geschichten entwickelt hat.
    Ich denke (komplexe) Roboter und Menschen sind ähnlicher, als wir annehmen. Erstere machen genau so Fehler wie wir, wenn auch in der Regel weniger, aber es können auch plötzlich viele und verheerende sein. Programmierte Waffen, aber auch Fahrzeuge, werden Menschen umbringen auch wenn das nicht beabsichtigt oder vorprogrammiert ist.
    Soldaten müssen in der Regel noch so grässlichen Befehlen gehorchen und werden oft selber umgebracht, wenn sie es nicht tun. Auch in Armeen, wo das nicht geschieht, befolgen die meisten Soldaten ihren Befehlen und bringen Menschen um auch wenn sie die Richtigkeit nicht beurteilen können oder ablehnen. Man denke nur an die Drohnen-Piloten, welche dauernd auf Befehl irgendwelche Menschen ermorden, samt Familien und „Kollateralschaden“, weil sie als Terroristen gelten. Und auch wenn sie selber entscheiden: Die Wirklichkeit ist brutaler als das Trolley-Problem. Soll ich einen Terroristen und 5 Unschuldige töten, weil sonst der Terrorist mit hoher Wahrscheinlichkeit 100 Menschen umbringt?

    1. Ja, Isaac Asimovs Robotergesetze waren ein spannender Versuch der Maschinenethik. Man muss nicht einmal Killerdrohnen herannehmen, um sich klar zu werden, dass schon diese einfachen Regeln wie «Ein Roboter darf kein menschliches Wesen (wissentlich) verletzen oder durch Untätigkeit (wissentlich) zulassen, dass einem menschlichen Wesen Schaden zugefügt wird.» von modernen Algorithmen, wie sie etwa Facebook nutzt, verletzt werden.
      Ich glaube aber, die grosse Gefahr liegt darin, dass Roboter eben genau nicht wie Menschen funktionieren. Roboter (oder COmputer) können nicht denken und fühlen, sie können nur rechnen. Sie können aber so schnell rechnen, dass wir ihnen Denken unterstellen (weil wir kein Gefühl für das schnelle Rechnen haben). Wir können bei Robotern und Computern deshalb nicht auf «Menschlichkeit» vertrauen, die muss von Anfang an explizit bedacht und einprogrammiert werden. Und genau das passiert (auch im Banalen) heute viel zu wenig.

  2. Schlussendlich, und dass sehen wir im letzten Abschnitt des Wochenkommentars – braucht der Mensch eine Ethik. Denn hat der keine, kann er sie auch nicht den Maschinen implizieren.
    Um die Ethik des Menschen – bei uns schon im Kindergarten ein „Schulfach“ – steht es schlecht bestellt. Trotz „Peace-Wochen“ in der Grundschule, trotz „Friedens-Runden“ in der Mittelschule – das Mobbing, die Raufereien, die Schlägereien, das Quälen in den Lernanstalten wird immer brutaler. Es wächst quasi gleichzeitig mit „Peace-Tagen“ usw… um so mehr.
    Aber wie soll sich im Kleinen ändern, was im Grossen sich täglich abspielt:
    Friedensengel Biden zog die US-Truppen aus Afghanistan ab. Er will nicht noch mehr Geld und US-Soldaten dort verheizen. Seinem Handeln und den Konsequenzen war er sich bewusst. Wider abraten seiner wichtigsten Militärs! Im wissen um die schrecklichen Folgen! Er stoppte den Abzug nicht. Seine US-Flugzeuge flogen halbleer Botschafter aus der Hölle – und seine Suchhunde hatten einen Doppel-Sitzplatz im geräumigen Flugzeug… während tausende am Kabul-Airport um ihr Leben lechzten vor den „Taliban:innen“. (……selbst dort Euro-Genderwahn-Schreibweise in D-Presse… Übertrieben – fragt mal einen Taliban nach einer Talibaninn, man wird eine/seine Antwort schon erhalten – doch wir schweifen ab….)
    „America first“ – nicht nur in Worte (wie beim bösen Trump) – sondern von (unserem nurgutmachendem dauerperlweisslächelnden Medienhalbgott) Biden knallhart umgesetzt!.
    Ethik (Situation „Wen gegen wen soll man retten“) auch hier – Horror und Krieg (das Gegengenteil von Ethik) live auf SRF.
    Doch niemand stellt sich Fragen: Wieso? Weshalb? Fehlermacher Biden? Ethik?
    Weil nicht sein kann, was nicht sein darf. Ethik bei uns nur dort, wo es „nicht wehtut“, wo es „easy“ ist, wo es „nichts kostet“, wo es reinpasst (ARD-ZDF-SRF-Gut-Böse-Ideologie)…..
    Ethik sollte aber in unser aller Denken und Handeln an an erster Stelle stehen.

    1. Ja, das stimmt schon: Von Ethik ist bei uns heute nicht mehr viel die Rede. Im Unterschied zu Robotern und Computern haben die Menschen aber (wenn sie es zulassen) ein Gefühl dafür. Empathie, Menschlichkeit, Bauchgefühl – das alles hat der Computer nicht. Was Afghanistan angeht, empfehle ich den Blick in das Buch, das ich diese Woche vorgestellt habe: https://www.matthiaszehnder.ch/buchtipp/macht-und-wahn/ Wir greifen viel zu kurz, wenn wir nur das Ende der Tragödie ansehen. Das Problem war wohl vielmehr der Anfang, dass die Russen und die Amerikaner Afghanistan in Kriege verwickelt haben…

  3. Mehr noch als der Bedarf nach einer digitalen Ethik beschäftigt mich die Frage, inwiefern und gar ob überhaupt es in unserer Gesellschaft grundsätzlich mit rechten Dingen zugeht? So bin ich beispielsweise nicht nur über den Inhalt des Berichts „Verbrechen an der Menschlichkeit“ von Rüdiger Lenz sehr erschrocken, sondern bin es zudem auch, weil dazu keine breite öffentliche Auseinandersetzung stattfinden will. Hier der Link: https://kenfm.de/verbrechen-an-der-menschlichkeit-von-ruediger-lenz-podcast.

Schreiben Sie einen Kommentar

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.