Algorithmen und Filterblasen – ein Thema, das mich gerade sehr beschäftigt. Vor ein paar Wochen habe ich damit begonnen, nicht nur ab und zu die New York Times oder die Washington Post zu lesen, sondern auch Fox News. Und man könnte glauben, es ginge um Vorkommnisse auf komplett unterschiedlichen Planeten. Es macht deutlich, wie gespalten (nicht nur) die amerikanische Gesellschaft ist. In meinem persönlichen Fall hat dieser Ausbruch aus der Filterblase zudem dazu geführt, dass Facebook damit begonnen hat, mir unfassbare Werbung zu zeigen.
Seit etwa zehn Jahren sprechen wir von „Filterblasen“, um zu beschreiben, welche Informationen uns das Internet serviert – oder vorhält. Geprägt hat den Begriff der Internetunternehmer und -aktivist Eli Pariser. Er meint damit das „persönliche Informations-Ökosystem, das Algorithmen für uns kreieren“ (Aus seinem Bestseller von 2011 "The Filter Bubble: What The Internet Is Hiding From You").
Als das Internet an Bedeutung gewann, kam zuerst eine utopische Stimmung auf. Demokratie! Informationen für alle! Verbindungen, über die ganze Welt hinweg! Aus dem Weg, ihr Gatekeeper, die ihr früher Informationen bewacht habt!
Und dann wurde es doch wieder nötig, die Informationen zu filtern, weil es schlicht zu viele davon gibt. Und statt der alten Gatekeeper, die sich (idealerweise!) von journalistischen Werten leiten liessen, entscheiden nun Algorithmen, wer welche Informationen sieht. Und die handeln nicht nach Werten. Sie richten sich nach Relevanz und Kohle.
Siehe Zitat Mark Zuckerberg: “a squirrel dying in your front yard may be more relevant to your interests right now than people dying in Africa.”
"There’s no going back to the old system of gatekeepers, nor should there be. But if algorithms are taking over the editing function and determining what we see, we need to make sure they weigh variables beyond a narrow 'relevance.' They need to show us Afghanistan and Libya as well as Apple and Kanye.“
Aus einem Interview mit Eli Pariser in der New York Times (2011)
"And this moves us very quickly toward a world in which the Internet is showing us what it thinks we want to see, but not necessarily what we need to see. As Eric Schmidt said, 'It will be very hard for people to watch or consume something that has not in some sense been tailored for them.' " And what's in your filter bubble depends on who you are, and it depends on what you do. But the thing is that you don't decide what gets in. And more importantly, you don't actually see what gets edited out."
"What we're seeing is more of a passing of the torch from human gatekeepers to algorithmic ones. And the thing is that the algorithms don't yet have the kind of embedded ethics that the editors did. So if algorithms are going to curate the world for us, if they're going to decide what we get to see and what we don't get to see, then we need to make sure that they're not just keyed to relevance. We need to make sure that they also show us things that are uncomfortable or challenging or important."
Aus Eli Parisers TED Talk von 2011
Buch und Zitate sind von 2011. In Zeiten von Trump und Brexit aber immer noch brandaktuell.
Um auf die früheren, heute eher an den Rand gedrängten menschlichen Gatekeeper zurückzukommen – hier ein kleiner Einblick in den Journalistenkodex des Schweizer Presserats. In der Präambel steht:
"Das Recht auf Information, auf freie Meinungsäusserung und auf Kritik ist ein grundlegendes Menschenrecht."
"[Journalist*innen] veröffentlichen nur Informationen, Dokumente, Bilder, und Töne deren Quellen ihnen bekannt sind. Sie unterschlagen keine wichtigen Elemente von Informationen und entstellen weder Tatsachen, Dokumente, Bilder und Töne noch von anderen geäusserte Meinungen."
Zu den Richtlinien von Schweizer Journalist*innen gehören unter anderem die
Richtlinie 1.1 – Wahrheitssuche
Richtlinie 2.1 – Informationsfreiheit
Richtlinie 2.2 – Meinungspluralismus
The torch has been passed. The gatekeepers have changed. Oh, the humanity.