Eigentlich fand ich die Empfehlungsalgorithmen von Amazon immer recht nützlich. Ich verdanke ihnen die Entdeckung mehrerer interessanter Autoren und Bücher, die ich sehr schätze. Deshalb habe ich ganz unbedarft geklickt, als mir vor einiger Zeit ein Buch mit dem Titel „Wahnsinn der Massen: Wie Meinungsmache und Hysterie unsere Gesellschaft vergiften“ vorgeschlagen wurde. (Spätestens seit meiner Studienzeit am Mainzer Institut für Publizistik ist das Thema „Medienwirkungsforschung“ ein Steckenpferd von mir und kann einen Klickreiz auslösen.)
Die weiteren Infos über den Titel sprachen mich dann doch nicht so an, aber nur einen weiteren, neugierigen Klick später, hatte sich meine Amazon-Seite deutlich verändert: Unter den Rubriken „Weitere Artikel entdecken“ und „Kunden, die diesen Artikel gekauft haben, kauften auch“ tauchten unter anderem mehrere der unverantwortlichen Machwerke aus dem Kopp Verlag mit Titeln wie „Bevölkerungsaustausch in Europa“ auf. (Der SWR attestiert dem Verlag, dass er Rechtspopulisten eine Plattform biete und Zweifel an Demokratie und Aufklärung säe, laut Wikipedia gehören rechtspopulistische und rechtsextreme Titel zum Sortiment.)
Ein Bekannter machte kürzlich eine ähnliche Erfahrung: Er fand das „andere Jahrbuch“ des Kopp Verlags (in dem unter anderem die Corona-bedingte Maskenpflicht als Teil einer Folterstrategie der Regierung bezeichnet wird) bei Amazon auf der Übersichtsseite der Politikbücher zwischen den Büchern von Barack Obama und Yuval Harari.
Nun sind die dahinter liegenden Mechanismen nichts Überraschendes: Wer auf etwas klickt, der bekommt danach das angezeigt, was irgendwelche statistischen Zwillinge mit einem ähnlichen Klickverhalten goutieren. So funktionieren die allseits bekannten Echokammern auf Facebook & Co. Und diese Algorithmen führen dazu, dass rechtspopulistische Inhalte umso mehr Usern angezeigt werden, wenn sie zuvor von immer mehr anderen Usern gelesen (oder im Online-Shop gekauft) wurden. Personalisierungs-Algorithmen fördern auf diesem Weg tendenziell die Verstärkung rechter Echokammern – nicht nur in sozialen Netzwerken, sondern auch in Online-Shops – und auf seriösen Nachrichtenseiten.
Wie das auf Nachrichtenseiten funktionieren kann, zeigt der damalige Head of IT Infrastructure beim Mediatech-Startup Merkurist, Marc-Anton Flohr, in einem schon etwas älteren Video (etwa ab 1:00:00): In einem Experiment hat er Nutzerdaten zur Lektüre von Lokalartikeln in ein auf Google KI-Tool Tensorflow basierendes Personalisierungssystem geworfen und noch dazu mit den politischen Präferenzen einiger User (erhoben über eine Online-Umfrage: Was würden Sie wählen, wenn am Sonntag Wahl wäre?) ergänzt. Eines der wenig überraschenden Ergebnisse: Grünen-Wähler sollten bei einer Personalisierung nach Interesse unter anderem einen Beitrag zum Einkaufen ohne Plastikmüll eingeblendet bekommen. (Merkurist setzt den Algorithmus in dieser Form übrigens nicht auf den eigenen Seiten ein. Die Demo zeigt aber sehr schön, wie Personalisierung funktioniert und was sie bewirken kann.)
So weit so banal. Genauso banal und selbstverständlich ist aber wohl, dass eine Personalisierungs-KI, die darauf programmiert wurde, eine Nachrichtenseite nach dem individuellen Geschmack eines Users zusammenzustellen (und die ihren Job gut macht), einem potenziellen AfD-Anhänger einen kritischen Beitrag der Redaktion über diese Partei eher nicht anzeigen wird. (Was dann vielleicht nicht mehr so banal wäre …) Und ein erheblicher Teil der führenden Nachrichtenseiten setzt inzwischen Personalisierungs-Lösungen ein, unter anderem im Zusammenhang mit dynamischen Paywalls. (Und so funktioniert natürlich auch der Algorithmus von Netflix, der darüber entscheidet, wer welche politische Doku „empfohlen“ bekommt.)
Was folgt daraus? Sind diese Personalisierungen überhaupt ein Problem? (Immerhin lebte schon vor dem Internet beispielsweise ein Welt-Leser im Zweifelsfall in einer anderen Filterblase als der taz-Abonnent.) Ganz interessant fand ich hier das schon etwas ältere Buch „Automate this! How Algorithms came to rule our World“ von Christopher Steiner. (Ja, das ist jetzt ein Amazon-Link …) Der berichtet darin nicht nur wie Algorithmen bei Nachrichtenauswahl und Partnervermittlung zum Einsatz kommen, sondern ebenso von Experimenten bei der Zusammenstellung von produktiven Teams im Job und bei der Zuordnung eines Kundenberaters im Call-Center, der „ähnlich tickt“ (und damit den Erfolg eines Telefonats erhöht). Am Ende des entsprechenden Kapitels steht die Frage, wie sich das in der Kumulation auf die Toleranzschwelle einer Gesellschaft auswirkt. Also vielleicht doch ein Handlungsbedarf?
Wohlgemerkt: Es geht nicht darum, bestimmte Bücher von Verschwörungstheoretikern zu verbieten. Oder diese nicht mehr zu liefern (was einem Verbot gleichkäme). Aber ist das, was Amazon aktuell praktiziert, nicht vergleichbar mit einem Buchhändler, der rechtspopulistische Bücher in seinem Schaufenster dekoriert? Und will ich in so einen Buchladen gehen?
Und es geht nicht darum, auf Nachrichtenseiten und in sozialen Netzwerken generell keinerlei Personalisierungsmechanismen einzusetzen. Aber höchstwahrscheinlich wäre es nicht verkehrt, wenn etwas öfter über die Auswirkungen von Personalisierungs-Algorithmen diskutiert würde. Vielleicht kommt dann der ein oder andere Titel zu dem Ergebnis, dass es ausreicht Personalisierung bei Sport, Wirtschaft und Panorama, aber nicht bei politischen Themen einzusetzen? Oder Facebook verlinkt irgendwann sogar freiwillig einen „Pressespiegel“, der nicht von einem Algorithmus zusammengestellt wurde?

Wieso steht der „Spiegel Bestseller“ aus dem Kopp Verlag auf der Amazon-Seite über politische Bücher zwischen den Amazon Bestsellern – ohne aber selbst als Amazon Bestseller gekennzeichnet zu sein? (Screenshot vom 16.2.2021)