Algorithmen: Denn wir wissen nicht, was sie tun

Publiziert am 3. September 2021 von Matthias Zehnder

In digitalen Medien spielen Algorithmen und künstlich intelligente Systeme eine immer grössere Rolle. Das führt zu zwei grossen Problemen. Erstens wissen viele Benutzer:innen nicht, dass das, was sie da sehen, nicht von Menschenhand stammt. Aber auch wenn es ihnen bewusst ist, dass da ein Computer am Werk ist, bleiben zweitens die Regeln, nach denen der Algorithmus arbeitet, meistens im Dunkeln. Wir brauchen deshalb in der Publizistik eine doppelte Transparenz: Eine Kennzeichnungspflicht von maschinell generierten oder gruppierten Inhalten und eine Transparenzpflicht bezüglich der grundsätzlichen Funktionsweise von publizistischen Robotern. Denn wir wissen nicht, was sie tun.

Es gibt wahrscheinlich kaum ein anderes Gebiet, in dem Roboter heute schon eine so grosse Rolle spielen – und niemand bemerkt es: In den Medien sind Algorithmen und künstlich intelligente Systeme allgegenwärtig. Im englischen Sprachraum gibt es dafür ein neues Fachwort: «Algorithmic Journalism» (AJ). Es beginnt mit der Auswahl der Werbung, die Ihnen online angezeigt wird, reicht über automatisch generierte Nachrichten auf Twitter, den Wetterbericht in der Wetter-App und die Fussballresultate und endet mit der Anordnung der Nachrichten auf der Seite Ihres Lieblingsmediums. Problematisch daran ist, dass die meisten Menschen keine Ahnung haben, dass hinter dem, was sie da sehen, kein Mensch steckt, sondern ein Algorithmus. Und wenn sie es wissen, dann bleibt in aller Regel im Dunkeln, wie die Algorithmen arbeiten. Schauen wir uns die Sache etwas genauer an.

Von «algorithmic journalism» spricht man, wenn journalistische Inhalte nicht mehr allein von Menschen kreiert werden, sondern auch von Computern. Auf englisch spricht man deshalb auch von «computational journalism», von «robotic journalism» und von «automated journalism». Im Prinzip geht es dabei um vier Anwendungsbereiche:

  1. Data Mining – das Gewinnen von Informationen für journalistische Aufgaben durch automatisierte Datenverarbeitung.
  2. Automatisierte Inhaltsproduktion – der Computer schreibt die Texte auf der Basis von Daten und Strickmustern selbst
  3. Automatisierte Verbreitung von Nachrichten – der Computer postet zum Beispiel selbstständig Nachrichten auf Twitter oder generiert Meldungen in einer News-App.
  4. Optimierung der Inhalte oder der Darstellung der Inhalte – der Computer besorgt das Layout der Nachrichtenseite oder wählt die Beiträge aus, die Sie zu sehen bekommen.

Der Computer als Autor

Der Computer kommt dabei also nicht nur als bessere Schreibmaschine zum Einsatz, sondern fällt aufgrund von Algorithmen und künstlich intelligenten Systemen selbst Entscheide. Die Grenze kann dabei durchaus fliessend ausfallen. Moderne Textverarbeitungsprogramme können, anders als eine Schreibmaschine, auf einigermassen intelligente Art und Weise die Rechtschreibung prüfen. Sie finden dabei nicht nur blosse Orthografiefehler, sondern können auch fehlende oder falsche Satzzeichen monieren und sogar Vorschläge für bessere Formulierungen machen. Nur einigermassen intelligent ist die Sache, weil ein Algorithmus kein Zauberding ist, sondern lediglich ein Regelwerk, an das sich der Computer hält. Ein Algorithmus ist also eine Art Kochrezept, das freilich sehr komplex aussehen kann. Künstlich intelligent ist ein System, wenn es diese Kochrezepte nicht fertig vorgesetzt bekommt, sondern sich selbst durch Lernprozesse erarbeitet. Das tönt wiederum intelligenter, als es ist: In der Praxis suchen solche Systeme oft schlicht nach Mustern und versuchen hinter den Mustern eine Regel zu erkennen.

Wenn von algorithmischem Journalismus die Rede ist, dann geht es meistens um automatisierte Inhaltsproduktion: Der Computer schreibt die Texte selbst. Dabei kommt keine Literatur heraus, das ist aber auch nicht die Absicht. Eine der ersten Anwendungen von solchen Schreibrobotern war der «Quakebot», den die «Los Angeles Times» 2014 entwickelte. Es handelt sich dabei um eine Softwareanwendung, die von der Zeitung kreiert wurde, um so schnell wie möglich über die neuesten Erdbeben in der Region zu berichten. Das Computerprogramm prüft die Erdbebenmeldungen des U.S. Geological Survey und erstellt, wenn sie bestimmte Kriterien erfüllen, automatisch einen Artikelentwurf. Auf diese Weise ist die Zeitung in der Lage, in der erdbebengefährdeten Region von Los Angeles sehr rasch über neue Beben zu informieren.

Auf ähnliche Art und Weise informieren Medien auf der ganzen Welt heute über Wetterereignisse, betten Zahlen nach Abstimmungen und Wahlen in automatisch generierte Texte ein oder bieten Zugriff auf Sportberichte. All diesen Textsorten ist gemein, dass sie stark normiert sind. Sie kennen das aus den Wetterprognosen oder den Verkehrsmeldungen: Die klingen, auch wenn sie ein Mensch geschrieben hat, nach vorgestanztem Text, weil sie so formelhaft sind. Solche Textsorten lassen sich deshalb relativ einfach von Computern generieren. Das Resultat liest sich nicht wie ein Text von Thomas Mann oder Kurt Tucholsky, das ist aber auch nicht so wichtig. Es kommt vielmehr darauf an, Informationen wie beim Quakebot möglichst rasch zu transportieren, oder, wie beim Wetterbericht oder den Sportresultaten, eine so detaillierte oder individuelle Information anzubieten, die Menschen nicht leisten könnten. Dieser Teil des algorithmischen Journalismus macht gerne (von Menschen geschriebene) Schlagzeilen, ist in der Praxis aber gar nicht so wichtig.

Der Computer als Optimierer und Verteiler

Viel wichtiger als die Rolle, die der Computer als «Autor» von Nachrichten spielt, sind die Aufgaben, die er in der Optimierung und Verbreitung von Nachrichten übernimmt – und zwar in aller Regel, ohne dass die Leser:innen das bemerken. Dabei kreiert der Computer selbst keine Inhalte, er stellt die von Menschen kreierten Inhalte lediglich zusammen, er optimiert sie oder er verbreitet sie. Das tönt harmloser, als es ist. Das bekannteste Beispiel für ein solches algorithmisches Inhalte-Verbreitungssystem ist Facebook. Wer Facebook aufruft, sieht in der Mitte des Computerbildschirms oder der Handy-App Beiträge seiner Facebook-Kontakte. Welche Inhalte die Facebook-Nutzerin hier sieht und in welcher Reihenfolge die Inhalte auftauchen, darüber entscheidet der News-Feed-Algorithmus von Facebook. Und der ist etwa so geheim wie die berühmte Formel von Coca Cola.

In ihrem Buch «Inside Facebook: Die hässliche Wahrheit» beschreibt Sheera Frenkel, wie Facebook diesen Algorithmus immer wieder anpasst und verändert. Als nach dem Wahltag 2020 in den USA der neue Präsident noch nicht feststand und es zu immer wüsteren Auseinandersetzungen unter den Wählergruppen kam, nahmen die Entwickler bei Facebook notfallmässig eine Änderung an diesem Algorithmus vor: Sie gewichteten seriöse Nachrichtenquellen höher. Das führte dazu, dass die Facebook-Nutzer mehr seriöse Nachrichten und weniger Fake News und Verschwörungstheorien zu sehen bekamen.

«Für die Dauer von fünf Tagen nach der Wahl erschien Facebook als ein ruhigerer, weniger spalterischer Ort», schreibt Frenkel. «Wir fingen an, es ‹der nettere News Feed› zu titulieren», erzählte ein Entwickler. «Einen kurzen Moment lang hatten wir das vor uns, was Facebook hätte sein können.» Frenkel schreibt, dass sich Facebook-intern viele Entwickler dafür einsetzten, diesen «netten News Feed» zu einer dauerhaften Einrichtung zu machen. Doch bis zum Monatsende war der alte Algorithmus wieder aktiviert. Frenkel schreibt, das Management von Facebook habe sich Sorgen darüber gemacht, «wie die Konservativen wohl reagieren würden, wenn mehrere prominente Medienquellen aus dem rechten Spektrum dauerhaft herabgestuft würden». Zudem hätten die User weniger Zeit auf der Plattform verbracht. Das Management vermutete als Ursache die Änderungen am Algorithmus und machte sie deshalb rückgängig. Der «nette News Feed» verschwand wieder. Denn oberstes Ziel von Facebook und seinem Algorithmus ist nicht eine möglichst gute Information seiner Benutzer:innen. Oberstes Ziel ist es, dass die User:innen so viel Zeit wie möglich auf Facebook verbringen. Dafür sorgt der Algorithmus – mit Emotionen, Drama und Inhalten, die mit den Ansichten der Nutzer:innen übereinstimmen.

 Schwachpunkt ist der benutzende Mensch

Ganz ähnlich ist das bei den meisten Onlinemedien: Ziel von «Blick», «20 Minuten» und anderen ist es, die Benutzer:innen mit saftigen Schlagzeilen auf die Portale zu holen – und dafür zu sorgen, dass sie da auch möglichst lange bleiben. Zum Teil steckt dahinter das gute alte Handwerk: knackige Titel, grosse Versprechen, starke Bilder. Auch Onlinemedien setzen dafür aber zunehmend auf Algorithmen. So lassen sich per Computer verschiedene Titelvarianten ausprobieren – der Computer wählt automatisch jene Variante, die am meisten Klicks erhält. Die Systeme schlagen dem Nutzer unter dem Text automatisch weitere Artikel zur Lektüre vor, teilweise sind diese Vorschläge auch schon individualisiert. Es gibt keinen Grund, warum nicht auch die Frontseiten der Onlinemedien von Algorithmen individuell so gestaltet werden, dass sie die Benutzer möglichst perfekt ansprechen und bei ihren Interessen abholen. Das Problem beim Algorithmus von Facebook und den Computersystemen der Onlinemedien: Den meisten Menschen ist nicht bewusst, dass die Auswahl an Nachrichten, die sie auf dem Bildschirm sehen, von einem Computer getroffen worden ist. Sie halten das, was sie sehen, für das Werk von Menschen. Sie halten das, was sie sehen, für die Wahrheit der Medien. Dabei ist es lediglich das Produkt algorithmischer Verführungskunst.

Damit passiert eigentlich das, wovon Computer-Apologeten seit Jahren träumen: Ein künstlich intelligentes System verhält sich so, dass die Menschen es nicht für eine Maschine, sondern für einen Menschen halten. Vielleicht erinnert Sie das an den Turing-Test: Diese Prüfung für intelligente Computersysteme gilt dann als bestanden, wenn ein Mensch nicht sagen kann, ob er mit einem anderen Menschen oder mit einem Computer chattet. Viele Menschen fallen auf Computer herein. Nicht weil die Computer so gut sind, sondern weil die Menschen so schlecht darin sind, die Maschinen zu enttarnen. Wir Menschen sind uns gewohnt, in eine Kommunikation Sinn zu interpretieren. Deshalb halten wir Hunde und Katzen zuweilen für intelligenter als sie sind: Wir messen sie mit unseren eigenen Massstäben und halten das Zucken der Ohren oder das Wedeln des Schwanzes für eine Reaktion, wie sie ein Mensch abgeben würde. Dabei hat es Hund und Katze vielleicht nur gejuckt. Wir vermenschlichen unsere Haustiere.

Doppelte Offenlegungspflicht

Und genauso machen wir es mit Systemen, die von Computern gesteuert werden. Das Problem ist also nicht, dass die künstlich intelligenten Systeme so gut sind, dass sie uns an der Nase herumführen. Das Problem ist, dass wir uns so einfach an der Nase herumführen lassen. Der Schwachpunkt im System ist mit anderen Worten nicht die Maschine, sondern der Mensch. Es genügt deshalb nicht, im Kleingedruckten irgendwo zu erwähnen, dass einzelne Inhalte von Maschinen generiert sein können. Ich glaube, Inhalte und redaktionelle Entscheidungen von Algorithmen müssen klar und deutlich gekennzeichnet sein. Und zwar so, dass die Kennzeichnung jederzeit zu sehen ist. Am besten wäre es, wenn solche Inhalte grundsätzlich mit einer bestimmten Farbe unterlegt wären. Das ist natürlich nicht realistisch. Also sollten sie mindestens so mit einem Algorithmen-Symbol gekennzeichnet sein, dass dieses Symbol jederzeit im Bild zu sehen ist.

Zweiter Punkt: Wir unterschieben unserem Gegenüber, aber eben auch Hund, Katze und Computer Absichten, wie wir sie selber haben. Computer können aber auf völlig anderer Basis arbeiten – und deshalb manchmal zu ganz anderen Resultaten kommen. Es müsste deshalb eine Offenlegungspflicht für publizistische Algorithmen geben. Konkret: Ein Klick auf das Algorithmen-Symbol sollte die Grundprinzipien des Algorithmus offenlegen. Das wäre keine Hexerei. Die «NZZ am Sonntag» zum Beispiel informiert transparent darüber, wie ihr Empfehlungs-Algorithmus funktioniert. Das Programm erstellt aus mehreren Ausgaben der «NZZ am Sonntag» eine für den jeweiligen Nutzer persönlich zusammengestellte Leseliste. Errechnet wird die Liste auf der Basis von mehreren Komponenten. Ausgangspunkt sind die Lesehistorie, das Lieblingsressort und die Themenpräferenz. Die zweite Komponente des Algorithmus bildet die redaktionelle Bedeutung des Artikels. Die besteht aus der Wichtigkeit des Themas und der Haltbarkeit des Textes. Ja, auch Artikel haben ein Verfalldatum. Als dritte Komponente kommt noch die Beliebtheit der Texte unter den anderen «NZZ»-Leser:innen dazu. Es ist, wie wenn ein Koch zumindest die Zutatenliste für sein Rezept bekannt geben würde. Man kann das Rezept deshalb noch nicht nachkochen, kann aber beurteilen, ob man auf eine der Zutaten allergisch ist. Auf genau diese Art und Weise sollte Facebook darüber informieren, welche «Zutaten» für den Newsfeed zum Einsatz kommen. Doch davon sind wir weit entfernt.

Auf absehbare Zeit werden Algorithmen lausige Schreiber sein. Computergenerierte Texte werden deshalb weiterhin nur in speziellen Anwendungsgebieten zum Einsatz kommen. Algorithmen werden aber eine immer grössere Rolle dabei spielen, welche Nachrichten wir online zu Gesicht bekommen und wie diese Inhalte aufbereitet sind. Die meisten Menschen gehen davon aus, dass Menschen ihre Nachrichten auswählen. Sie unterschieben den Algorithmen deshalb Absichten, die nicht vorhanden sind. Damit die Menschen weiterhin Vertrauen in die Medien haben, sollten Algorithmen deshalb künftig deklariert werden: mit einer Kennzeichnungspflicht auf der Website – und einer Offenlegungspflicht bezüglich ihrer Funktionsweise. Die meisten Menschen akzeptieren es, wenn Maschinen für sie arbeiten. Aber sie möchten es wissen.

Basel, 3. September 2021, Matthias Zehnder mz@matthiaszehnder.ch

PS: Nicht vergessen – Wochenkommentar abonnieren. Kostet nichts, bringt jede Woche ein Mail mit dem Hinweis auf den neuen Kommentar und einen Buchtipp. Einfach hier klicken. Und wenn Sie den Wochenkommentar unterstützen möchten, finden Sie hier ein Formular, über das Sie spenden können.

PPS: Wenn Sie den Wochenkommentar nur hören möchten, gibt es jetzt hier eine Audioversion (noch im Experimentalstadium):


Quellen

Bild: © KEYSTONE/DPA/Stefan Jaitner

Dörr, Konstantin Nicholas (2016): Mapping the field of Algorithmic Journalism. In: Digital Journalism 4/6. S. 700–722. doi:10.1080/21670811.2015.1096748. [10.1080/21670811.2015.1096748; 3.9.2021].

Frenkel, Sheera (2021): Inside Facebook: Die hässliche Wahrheit. Frankfurt am Main: S. Fischer. [; 3.9.2021].

Kotenidis, Efthimis und Veglis, Andreas (2021): Algorithmic Journalism — Current Applications and Future Perspectives. In: Journalism and Media 2/2. S. 244–257. doi:10.3390/journalmedia2020014. [10.3390/journalmedia2020014; 3.9.2021].

Los Angeles Times (2014): Quakebot. In: Los Angeles Times . [https://www.latimes.com/people/quakebot; 3.9.2021].

Metzler, Marco und Kadar, Cristina (2019): «Nur Für Sie»: Wie Unser Empfehlungs-Algorithmus Funktioniert | NZZ Am Sonntag. In: NZZ Am Sonntag . [https://nzzas.nzz.ch/information/nur-fuer-sie-wie-unser-empfehlungs-algorithmus-funktioniert-ld.1494731; 3.9.2021].

Shane, Janelle (2021): Künstliche Intelligenz – Wie sie funktioniert und wann sie scheitert. Heidelberg: O’Reilly.

Shin, Donghee (2020): Expanding the Role of Trust in the Experience of Algorithmic Journalism: User Sensemaking of Algorithmic Heuristics in Korean Users. In: Journalism Practice. S. 1–24. doi:10.1080/17512786.2020.1841018. [10.1080/17512786.2020.1841018; 3.9.2021].

Zehnder, Matthias (2019): Die Digitale Kränkung. Über die Ersetzbarkeit des Menschen. Zürich: NZZ Libro.

3 Kommentare zu "Algorithmen: Denn wir wissen nicht, was sie tun"

  1. MUSS man denn? Muss man denn da mitmachen?
    Infos nur von Ehrlich-Quellen (werden immer seltener) und direkt vom Menschen (werden immer wichtiger), «Face-to-Face» (anstelle von «Facebook&Co.), vom Betroffenen.
    Lächerliche Texte über (böse) Banken, Negativzinsen bis hin zu (schlimmen) Veränderungen bei der Migros-„Cumulus“-Card? – Ohne mich. – Direkt informieren auch dort! Anrufen! Reden! Zur Rede stellen! Und Klarheit für sich selbst schaffen! Jeder Fall, jede Info ist anders. Wie auch jeder Mensch verschieden ist und sein eigenes «Ding», sein Anliegen hat.
    Verallgemeinernde Massenmedien wie Konsumentenmagazine, allgemeine Finanzinfos kann man schreddern. Jeder Konsument ist eigen. Und jeder Bankkunde auch. Der eine hat mehr, der andere weniger. Und Medizinsendungen…. Weshalb? Angst, Unsicherheit konsumieren – anstatt zum eigenen Doktor gehen für die eigenen Beschwerden.
    Anstelle mediale, gesteuerte, ausgrenzende, gesellschaftsspaltende «Impf-Bulldozer-Kampagnen» schlucken = eigener Kopf einschalten; Bedürfnisse, Gesundheitszustand, Lebenssituation (bin ich Schüler, Business-Mann, Förster, Notfallportier, Einsiedler…?) überdenken: Wiederum = Jeder ist anders….!
    Wozu Internetfähiges Handy mit Algorithmus, Ortung, Datenspur, wieso immer auf «on»? Wieso Kartenzahlung, wo bei jedem Zahlvorgang, bei jedem «Kaffi» -30 Rp dem Händler, Cafetier, Kioskler abgezogen wird; dafür +30 Rp zu Gunsten Bank fliesst (tausendmal, millionenmal tagtäglich nur in der Schweiz), wozu freiwillig gläserner Kunde sein? Wieso nicht Barzahlung mit «Echtzeit-Total-Kontostand-Info»: Wenn Portemonnaie leer = leer.
    Die Hälfte des Problems ist vom Schrumpfkopf-Jammernden selbstgemacht, der Bequemlichkeit geschuldet und vom Trend (is my friend) – sein diktiert.
    Wer hat den Mut, dem ganzen repetiven, anödendem «E-Gedöns» den Stecker zu ziehen?
    «Gägestüür gää» (Walter Däpp) .
    Genug ist genug. In diesem Bereich schon lange!
    Wenn wir das im Heute und Jetzt nicht schaffen – dann wird es spätestens die Natur bis zum bitteren «high-higher-highest-Zuvilisations-Blackout» richten!

  2. Ob Menschen realisieren, dass und wenn sie perfekt von Computern programmiert werden, um zu tun oder zu zu lassen, was sie sollen, scheint mir eine kurzfristig wichtige Frage. Als mittelfristig wichtig sehe ich die Frage, ob Menschen noch merken können oder wollen, dass sie – wenn auch nicht so perfekt – selber wie Computer denken und tun, was sie sollen. Und längerfristig orientiert stellt sich die Frage, wohin das die Menschheit führen kann, soll und wird?

    1. Lieber Ueli,
      wir merken es nicht, „manipuliert“ zu sein. Ich, ein Deutscher, finde es „normal“ ein Deutscher zu sein. So wie jeder Inder, Chinese, Berliner, Rheinländer oder Schweizer. Hätte ich keine Freunde aus anderen Ländern und Kontinenten, mit anderen Religionen etc. die all dies als selbstverstndlich ansehen und nicht auf die Idee kommen das zu hinterfragen, wäre ich nicht auf die Idee gekommen, meine Selbstverständlichkeiten zu relativieren, um nach einer Haltung zu suchen, welche etwas universeller ist.
      Der schleichende Prozess des Einflusses moderner Medien auf unser Alltagsleben ist bei unseren Kindern zu unserem „erstaunen“ so rasant, dass wir das, was wir tagtäglch erleben, recht „befremdlich“ empfinden, unsere Kinder aber wundern sich über uns.
      „Cest la vie“?

Schreiben Sie einen Kommentar

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.