Welche Regeln brauchen wir für den Umgang mit KI?

Publiziert am 16. Juni 2023 von Matthias Zehnder

Das EU-Parlament hat diese Woche strenge Regeln für den Einsatz von künstlicher Intelligenz verabschiedet. Jetzt muss der Text noch mit den Mitgliedsstaaten und der EU-Kommission verhandelt werden. Wenn das gelingt, hätte Europa das weltweit erste umfassende KI-Gesetz. Allerdings entsteht dabei der Eindruck, die KI stehe derzeit ausserhalb des Gesetzes und es sei sehr schwierig, Werte und Regeln für intelligente Systeme zu formulieren. Beides ist falsch. Bestehende Gesetze gelten auch für die KI, es mangelt aber an ihrer Durchsetzung – oder an der Kompetenz dafür. Auch ethisch liesse sich die KI gut fassen. Ich glaube, im Kern geht es nur gerade um drei Regeln. Diese Woche geht es in meinem Wochenkommentar deshalb um diese Werte: Was zählt beim Umgang mit KI? Und müssen wir wirklich auf die Gesetzgeber warten, bis wir diese Werte anwenden?

Das Parlament der Europäischen Union hat diese Woche einen grossen Schritt in Richtung einer gesetzlichen Regulierung von Künstlicher Intelligenz in Europa gemacht. Das Europäische Parlament hat eine Art Ampelsystem für die Künstliche Intelligenz entwickelt. KI-Anwendungen werden künftig in drei Kategorien eingeteilt: verbotene, hochriskante und erlaubte KI-Anwendungen. Die Regelungen richten sich nach dem Risiko für die Bürgerinnen und Bürger, die eine KI-Anwendung mit sich bringt.

Auf Rot stellt die EU künftig das Signal für alle KI-Systeme, welche die menschliche Sicherheit gefährden. Als Beispiel nennt das Parlament das «Social Scoring», wie es in China üblich ist. Verboten sind zudem biometrische Systeme, die es ermöglichen, Personen zu identifizieren oder biometrisch zu klassifizieren, und KI-Programme für das so genannte «predictive Policing». Die KI darf also nicht abschätzen, wie hoch das Risiko ist, dass eine bestimmte Person eine Straftat begeht. Die KI darf in Europa in der Strafverfolgung, beim Grenzschutz, am Arbeitsplatz und in Bildungseinrichtungen nicht zur Erkennung von Emotionen verwendet werden und es dürfen mit Hilfe von KI keine Gesichtserkennungsdatenbanken erstellt werden. Diese biometrischen Anwendungen würden die Menschenrechte und das Recht auf Privatsphäre verletzen, schreibt das Europäische Parlament.

Auf Orange stellt die EU das Lichtsignal für eine Gruppe von KI-Anwendungen, die sie als «hochriskante KI» bezeichnet. Dabei handelt es sich um KI-Systeme, die die Gesundheit, die Sicherheit und die Grundrechte von Menschen oder die Umwelt erheblich gefährden können. Dazu gehören auch KI-Anwendungen zur Beeinflussung von Wählern und Wahlergebnissen sowie in Empfehlungssystemen von Social-Media-Plattformen mit mehr als 45 Millionen Nutzern.

Auf Grün stellt das europäische Parlament die Ampel für die meisten Anwendungen der generativen KI. Dazu gehören auch ChatGPT und Google Bard. Allerdings müssen sie offenlegen, dass die Inhalte KI-generiert sind. Auf diese Weise will die EU Deepfake-Fotos von echten Bildern unterscheiden. Generative KI-Modelle dürfen keine rechtswidrigen Inhalte erzeugen und sie müssen detaillierte Zusammenfassungen der urheberrechtlich geschützten Daten veröffentlichen, die sie zu Trainingszwecken verwendet haben.

Die EU wäre damit der erste Wirtschaftsraum weltweit, der sich Regeln für den Umgang mit KI gibt. Allerdings muss der «AI Act» zuerst noch mit den Mitgliedsstaaten und der EU-Kommission verhandelt werden. Die neuen Regeln werden daher frühestens 2026 in Kraft treten. Angesichts der Geschwindigkeit, mit der sich KI derzeit entwickelt, fühlen sich die drei Jahre bis dahin eher wie drei Jahrzehnte an. Wir können nicht darauf warten, bis diese Regeln greifen.

Ethische Regeln für die KI

Das müssen wir aber auch nicht. Ähnlich wie in der Anfangszeit des Internets glauben viele Akteure, dass die KI rechtlich noch nicht geregelt sei. Das stimmt aber nicht: Die KI findet nicht auf einem neuen Planeten statt, sondern immer innerhalb eines bestimmten rechtlichen Rahmens. Das bedeutet, dass auch alle KI-Anwendungen Gesetze einhalten müssen, die zum Beispiel den Schutz der Privatsphäre oder den Schutz von Urheberrechten regeln.

Selbst wenn es rechtliche Grauzonen gäbe, lassen sich die ethischen Regeln aus meiner Sicht klar und einfach formulieren. Ich glaube, dass es im Wesentlichen um drei Regeln geht.

1) Schutz der Menschenrechte

Die Anwendungen der Künstlichen Intelligenz dürfen die Menschenrechte nicht verletzen. Das klingt banal, bedeutet aber zum Beispiel, dass jeder Mensch ein Recht auf Gleichbehandlung und Nichtdiskriminierung hat. Dass jeder Mensch ein Recht auf Privatsphäre hat, also in seinem privaten Umfeld nicht überwacht werden darf – auch nicht vom Staat. Jeder Mensch hat zudem ein Recht auf Gedanken- und Gewissensfreiheit, auf Religionsfreiheit oder auf Kunst- und Wissenschaftsfreiheit. All diese Freiheiten können dann in Gefahr sein, wenn eine KI Menschen sortiert und zum Beispiel aufgrund von Bewegungsdaten im Internet auf ihre Gefühle, ihre Gesinnung, ihre Religion oder ihre sexuelle Orientierung schliesst.

2) Transparenz

KI muss transparent sein und zwar in doppelter Hinsicht. Zum einen muss es für die Nutzerinnen und Nutzer transparent sein, wenn sie es mit einer KI zu tun haben, zum anderen muss transparent sein, welche Daten eine KI verarbeitet. Das ist derzeit ein grosses Problem: Nicht einmal ihre Entwickler wissen genau, welche Daten die KI im konkreten Fall verwendet und was sie mit den Daten genau macht. Ich gehe davon aus, dass generative KI-Systeme bald sehr viel zurückhaltender werden, weil sie vermutlich im grossen Stil Urheberrechte verletzen. In den USA gibt es bereits erste Klagen, weil bildgenerierende Systeme die Rechte von Künstlern verletzt haben sollen. Bei Sprachdaten ist das weniger klar nachweisbar. Aber wenn ich der KI sage: «Schreib mir einen Text im Stil von Günter Grass», dann ist klar, dass die KI in irgendeiner Form auf die Texte von Günter Grass zurückgreift. Je häufiger die KI eingesetzt wird, desto wichtiger ist aber auch die Transparenz gegenüber dem Nutzer. Es muss zum Beispiel jederzeit klar sein, ob ich in einem Chat, per Mail, WhatsApp oder auch am Telefon mit einem Menschen oder mit einer KI kommuniziere. Unterscheiden lässt sich das bald nicht mehr so einfach.

3) Verantwortung

Der wichtigste Punkt ist jedoch die Verantwortung. Eigentlich ist es trivial: KI-Anbieter und KI-Anwender müssen die Verantwortung für das übernehmen, was sie tun. Das heisst auch: KI kann keine Experten ersetzen. Nehmen wir ein Beispiel: Mit KI-Programmen können Sie Texte blitzschnell in eine andere Sprache übersetzen. Wenn sie diese andere Sprache beherrschen, ist das kein Problem, weil sie das Produkt der KI überprüfen und die Verantwortung dafür übernehmen können. Wenn sie diese andere Sprache aber nicht beherrschen, können Sie die Verantwortung für die Arbeit der KI nicht übernehmen. Lassen Sie dann die Finger davon.

KI ist daher ein hervorragendes Werkzeug in den Händen von Fachleuten: Übersetzer, Programmierer, Schreiber aller Art werden durch die KI um ein Vielfaches leistungsfähiger. Als Laie sieht man sich aber rasch in der Lage des Zauberlehrlings, der den Besen zwar mit «walle, walle!» in Gang setzen kann, dann aber nicht mehr weiter weiss. Wer kein Wort Chinesisch spricht, sollte deshalb die KI nicht dazu benutzen, einem Geschäftspartner eine Mail auf Chinesisch zu schicken, weil er keine Ahnung hat, was er da schickt. Ein Arzt kann ohne weiteres die KI einsetzen, wenn er ein Röntgenbild beurteilt – aber nur im Sinne eines nimmermüden Copiloten. Die Verantwortung muss beim Arzt bleiben.

Eigentlich ist es eine Selbstverständlichkeit, dass auch die Hersteller von KI-Systemen Verantwortung für die von ihnen produzierten Systeme übernehmen müssen. Das Problem ist, dass sie das zum Teil gar nicht können, weil sie nicht immer wissen, was genau in den Systemen passiert. Google Bard und ChatGPT sind bis zu einem gewissen Grad Black Boxes: Es sind selbstlernende Systeme, das heisst, sie bringen sich ihre Fähigkeiten selbst bei. Wie sie dabei vorgehen und welche Daten sie genau verwenden, ist nicht immer klar.

Verantwortung für künftige Generationen

Das wiegt umso schwerer, als die Verantwortung der Hersteller von KI-Systemen über die Verantwortung für die unmittelbare Tätigkeit der Systeme hinausgeht. Sie sind also nicht nur dafür verantwortlich, dass das selbstfahrende Auto richtig abbiegt oder das Übersetzungsprogramm korrekt übersetzt. Ich möchte dafür auf die zentrale These des Philosophen und Ethikers Hans Jonas zurückgreifen. In seinem Buch «Das Prinzip Verantwortung» schreibt er, dass die zunehmende Macht des Menschen über die Natur und die technologischen Fortschritte eine neue Form der Verantwortung mit sich bringe. Unter dem Eindruck von Atomwaffen und der Nutzung der Kernenergie hat Jonas ein neues Prinzip der Verantwortung entwickelt. Er sagt: Der Mensch muss nicht nur für sein Handeln in der Gegenwart Verantwortung übernehmen. Es geht auch um die Verantwortung für die Zukunft, für die künftigen Generationen. Das ist der «ontologische Imperativ». Wir müssen also unser Handeln und unsere Entscheidungen im Bereich der Künstlichen Intelligenz auch an den langfristigen Folgen und an den Auswirkungen für künftige Generationen und die Umwelt ausrichten.

Menschenrechte, Transparenz und Verantwortung. Das sind die drei Grundregeln, die Hersteller (und Anwender!) von KI-Systemen beachten sollten. Es sollte eigentlich selbstverständlich sein. Es gibt aber genügend Beispiele, dass ein in Aussicht stehender kurzfristiger Gewinn die langfristigen Folgen einer Technologie verblassen lässt. Denken wir nur an die Tabakindustrie oder, als aktuelles Beispiel, an Asbest: In der Schweiz ist Asbest schon lange verboten, weil es hochgradig krebserregend ist. In Asien gibt es Länder, in denen Asbest immer noch verarbeitet wird – ohne jegliche Schutzmassnahmen. Ein Grund dafür ist, dass die asbestbedingten Krankheiten erst nach Jahrzehnten auftreten. Der kurzfristige Nutzen überwiegt den langfristigen Schaden.

Auf Google, Microsoft oder andere Hersteller von KI-Systemen haben wir kaum Einfluss. Wohl aber auf die Anwendung ihrer Systeme. Wir alle können dazu beitragen, dass bei der Anwendung von KI-Systemen die Menschenrechte gewahrt bleiben, wir können KI transparent anwenden und wir müssen auch dann Verantwortung für unser Handeln übernehmen, wenn die KI das Steuer übernimmt.

Basel, 16. Juni 2023, Matthias Zehnder mz@matthiaszehnder.ch

PS: Nicht vergessen – Wochenkommentar abonnieren. Dann erhalten Sie jeden Freitag meinen Newsletter mit dem Hinweis auf den neuen Kommentar, einen Sachbuchtipp, einen Tipp für einen guten Roman, das aktuelle Fragebogeninterview und mein persönlicher Tipp für ein gutes, digitales Leben. Einfach hier klicken. Und wenn Sie den Wochenkommentar unterstützen möchten, finden Sie hier ein Formular, über das Sie spenden können.

PPS: Wenn Sie den Wochenkommentar nur hören möchten, gibt es auch eine Audioversion. Hier der Link auf die Apple-Podcast Seite oder direkt auf die Episode:


Quellen

Bild: © KEYSTONE/mauritius images/P. Widmann

Das Louise-Weiss-Gebäude in Strassburg, der Sitz des Europäischen Parlaments.

Nachtrag: Das EU-Parlament hat Regeln zur künstlichen Intelligenz beschlossen. Lesen Sie dazu diesen Hintergrund über den AI-Act von Datenschutz.org

AFP (2023): EU Lawmakers To Back World’s First AI Rules. In: France 24. [https://www.france24.com/en/live-news/20230614-eu-lawmakers-to-back-world-s-first-ai-rules; 14.6.2023].

Erzinger, Felicitas (2020): Langer Weg Zum Globalen Verbot – Asbest In Asien: Boom Mit Tödlichen Folgen. In: Schweizer Radio Und Fernsehen (SRF). [https://www.srf.ch/wissen/gesundheit/langer-weg-zum-globalen-verbot-asbest-in-asien-boom-mit-toedlichen-folgen; 15.6.2023].

EU Press Release (2023): AI Act: A Step Closer To The First Rules On Artificial Intelligence | News | European Parliament. In: Europeam Parliament. [https://www.europarl.europa.eu/news/en/press-room/20230505IPR84904/ai-act-a-step-closer-to-the-first-rules-on-artificial-intelligence; 14.6.2023].

Jonas, Hans (1979): Das Prinzip Verantwortung. Versuch einer Ethik für die technologische Zivilisation. Suhrkamp: Frankfurt am Main 1979.

Kremp, Matthias (2023): Chatbot Bard: Google Lässt Seinen ChatGPT-Konkurrenten Auf Die Welt Los. In: DER SPIEGEL. [https://www.spiegel.de/netzwelt/web/ki-google-laesst-seinen-chatgpt-konkurrenten-auf-die-welt-los-a-4765c668-52df-4e95-99c7-a7740dd02536; 12.5.2023].

Langer, Marie-Astrid (2023): Aufholjagd Zu Chat-GPT: Google Stellt Seinen Chatbot Bard Vor. In: Neue Zürcher Zeitung. [https://www.nzz.ch/technologie/aufholjagd-zu-chat-gpt-google-oeffnet-seinen-chatbot-bard-fuer-alle-ld.1737104; 12.5.2023].

Lisa O’Carroll, Lisa (2023): EU Moves Closer To Passing One Of World’s First Laws Governing AI. In: The Guardian. [https://www.theguardian.com/technology/2023/jun/14/eu-moves-closer-to-passing-one-of-worlds-first-laws-governing-ai; 14.6.2023].

Pressemitteilung EU-Parlament ready (2023): Parlament bereit für Verhandlungen über Regeln für sichere und transparente KI. In: Europäisches Parlament. [https://www.europarl.europa.eu/news/de/press-room/20230609IPR96212/parlament-bereit-fur-verhandlungen-uber-regeln-fur-sichere-und-transparente-ki; 14.6.2023].

Satariano, Adam (2023): Europeans Take A Major Step Toward Regulating A.I. In: The New York Times. [https://www.nytimes.com/2023/06/14/technology/europe-ai-regulation.html; 15.6.2023].

Spiegel (2023): Von Gesichtserkennung bis ChatGPT EU-Parlament will KI-Gesetz nachschärfen. In: DER SPIEGEL. [https://www.spiegel.de/netzwelt/netzpolitik/ai-act-eu-parlament-will-ki-gesetz-nachschaerfen-a-32d50845-f19a-4fcf-b3ee-b1c45f068465; 14.6.2023].

Sokolov, Daniel AJ (2023): KI Kann Sehr Schiefgehen: Warnende Stimme Im Hause Google. In: Heise Online. [https://www.heise.de/hintergrund/AI-kann-sehr-schiefgehen-Warnende-Stimme-im-Hause-Google-9010214.html; 12.5.2023].

Zehnder, Matthias (2019): Die digitale Kränkung. Über die Ersetzbarkeit des Menschen. NZZ Libro Verlag, 128 Seiten, 24 Franken; ISBN 978-3-03810-409-4

3 Kommentare zu "Welche Regeln brauchen wir für den Umgang mit KI?"

  1. Künstliche Intelligenz? Braucht es das wirklich? Verbieten und Verhindern kann man ja nichts. Zu gross ist Forscherdrang und Geldgeschäft damit. Aber was wäre, wenn es dies nicht gäbe. Hätten wir dann eine schlechtere Welt? Ich glaube nicht. Künstlich ist ja oft negativ besetzt. Künstliche Blumen, künstliche Holzbank (unfaulbar aber unbeliebt) gegenüber echter Holzbank. Künstliche Haare, künstlicher Busen, künstliche Fingernägel, künstliches Essen (Maggi, Knorr, Beutel und Würfel)… alles negativ besetzt.
    Künstliche Intelligenz als Vorstufe zum künstlichen Menschen (jetzt basteln gerade wieder engl. Forscher an der absolut künstlichen Erzeugung eines Menschen). Gruselzeilen bis jetzt.
    Würde dieser Hirnschmalz in Natur- und Umweltschutz Tatendrang umgesetzt, wie wohl wär mir. Natürlich kommt jetzt irgendjemand, das KI (auch) der Umwelt dienen (kann) – ich frag mich wirklich? Aber nur auf Umwegen. Zupacken und Hinlangen wären 2023 effektiver. Erinnert mich an unseren schwammige Willkür-Quäl-Klimagesetz-Papiertiger, der grüssen lässt – bedeutungslos für die Welt, heilsam fürs Gewissen…. Ähnlichkeiten und Parallelen unschwer feststellbar.
    Vorstufe zu Robotermenschen mit KI, die so überwissend sind, dass sie nicht mehr kontrollierbar sind. Schauder. Die Roboter sind „ES“. Joe Biden und die ganze Welt feiert die „ES“ (die total angesagte LGBT Community). Gepuscht wird sie aus allen Rohren. Wer nicht mitmacht ist vorgestern. (Gebt mal im Google-Suchfenster „LGBT“ ein und drückt Enter – es regnet bei Google Konfetti und Fahnen werden geschwenkt – Riesenaufwand und einzigartig – weshalb diese Ausnahmen, diese Bevorzugungen, dieses Prioritäre, dieses Auffordernde und Animierende bei Überall und Google?) Ich suche nach „Was steckt dahinter“ und suche Zusammenhänge in einer zusammenhängenden Welt.
    Kommen nun die cleversten oder oberdämlichsten Zeilen ganz Mitteleuropas von mir?
    Die ES-Roboter gleichen sich den ES-Menschen an. Ohne Geschlecht. Austauschbar. Und nur um sich selbst kreisend und bezogen. Diese These kursiert. Und je länger ich darüber nachdenke, desto mehr bemerke ich Zusammenhänge. Mensch oder Roboter sollen keine Differenzen mehr haben. KI und menschliches Gehirn gleichgeschaltet. Nicht mehr eigenständig, sonst ausgegrenzt = sieht man schon in Gesellschaft und Politik von Bern bis Berlin. Daran basteln die ganz Grossen. Die Oberelitegescheiten. Plusmenschen. Ohne Herz und lenkbar, manipulierbar, seelenlos grenzenlos zuverlässig unermesslich nur auf sich bezogen. Die Welt ist Nebensache. Aber Geld wird dadurch ohne Ende gewittert und generiert.
    Denkmäler und Sockelmenschen sind unschweizerisch. Doch hier wäre denk-mal (darüber) angesagt.
    Die Welt im menschlichen Delirium. Die Welt im ökologischen Schlamassel. Die Welt fokussiert auf die Wissenschaft und die Nebenschauplätze. Die Welt gibt es (für die Mehrheit bei uns) nur noch auf dem Handydisplay. Wirtschaft im Chaos (vergl. You-Tube-Film Titel: «Insider der Weltwirtschaft: Leonhard Fischer über eine Welt aus den Fugen»).
    Irgendwie steuern wir auf den Eisberg (solange es ihn noch gibt). Und alle klatschen. Und fiedeln weiter. Überall. Ob im Bundeshaus, an Open-Airs, dem Schosshund zu, oder den Wahrheitsbesitzer, das sind ja alle, zu.
    Bei Wahrheitssuchern (u.a. mir) bleibt das Klatschen stumm. Stille herrscht. Vorteil = so kann man Denken. Solange dies noch erlaubt ist….

  2. Meine vordergründige Sorge im Zusammenhang mit KI bezieht sich auf deren Potenzial einer verstärkten Herrschaft von Technologie sowie untergründig derer, die sie für ihre Zwecke zu nutzen wissen. Dass Gesetze – zumal in einer (wohlstands-)verwahrlosten Schlaraffenland-Gesellschaft – immer weniger wirklich und wirksam ausrichten, erfahre ich alltäglich als eine Tatsache. Die drei ethischen Regeln finde ich gut, wenn sie denn gelten: Was mir aber schon ohne KI nur zweifelhaft der Fall scheint.

  3. Danke für die sicher zentralen Überlegungen. Von meiner Seite nur ein Hinweis zum Kapitel „Menschenrechte“: Diese richten sich primär gegen den Staat und sollen die Menschen vor rechtlich nicht hinreichend legitimierten Eingriffen schützen. Dieser Schutz gilt aber nicht per se gegenüber „privaten Dritten“, also auch nicht gegenüber den meist mächtigen KI-Konzernen. Das wird zwar unter dem Titel „Drittwirkung der Grundrechte“ immer wieder diskutiert, aber die Rechtsmittel sind in der Schweiz wesentlich schwächer oder risikoreicher als diejenigen gegen staatliches Handeln. Sie schreiben: “ – auch nicht vom Staat“; noch dringlicher wäre m.E. “ – auch nicht von Konzernen“! Und da braucht es dringlich zusätzliche zielführende Rechtssätze, v.a. solche, die der Durchsetzung dienen. Ohne diese bleibt auch „Verantwortung“ toter Buchstabe.

Schreiben Sie einen Kommentar

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.