Allgemein

[Leitartikel] Filterbubble

Leitartikel Filterbubble

In Zeiten des verstärkt politisch gefärbten Agenda Settings haben sowohl etablierte Gatekeeper als auch Portale des Web 2.0 speziell mit der Informationsselektion eine große Verantwortung zu tragen. Im Gegensatz zu traditionellen Medien wirken online verstärkt bestimmte Mechanismen wie Algorithmen, Cookies oder einfach der allgemeine Aufbau eines sozialen Netzwerks auf den Informationspool von Nachrichtenkonsument_innen. Dadurch entsteht eine Filterbubble, aus der man als reflektiert-kritische_r Medienkonsument_in angehalten ist, auszubrechen.

Die Entscheidung, welche Inhalte verarbeitet werden und was außen vor gelassen wird, treffen Medienmacher_innen tagtäglich mit den unterschiedlichsten Intentionen, sei es aus ethisch-journalistischen Gründen oder aus purem politischen Kalkül. Traditionelle Gatekeeper wie beispielsweise auflagenstarke Qualitätszeitungen oder öffentlich-rechtliches Fernsehen tragen jedoch – auch aufgrund von Ehrenkodizes und der journalistischen Sorgfaltspflicht – weitaus weniger zum Phänomen der Informationsblase bei als das Internet mit seinen Social Media Plattformen. Andere technische Verstärker der Filterbubble wie Such-Algorithmen oder Cookies funktionieren als Blackbox des Web eher im Hintergrund und werden nur bewusst wahrgenommen, wenn sie nicht die gewünschten Resultate liefern.
Eine Zeitung deckt – um den vielfältigen Interessen der Leserschaft gerecht zu werden – zahlreiche Themenbereiche ab, beim Durchblättern stößt man immer wieder auf Artikel, die man im Web vermutlich nicht anklicken würde. Das Grundprinzip von Social Media ist jedoch ein anderes: Das Informationsangebot richtet sich nicht mehr an einer breiten Masse aus, sondern wird auf das Individuum maßgeschneidert. Dementsprechend bekommen User_innen genau das vorgesetzt, was sie aufgrund von Shares, Likes und Interessen sehen möchten – gerade genug wiederverarbeitet, um interessant zu bleiben, hingegen unaufregend genug, um nicht abstoßend zu wirken.

Als Nutzer_in bekommt man sich so im Prinzip selbst präsentiert, was speziell die Tendenz des Menschen anspricht, Informationen gemäß der „Selective exposure theory“ so zu selektieren, dass sie den eigenen Standpunkten entsprechen. Algorithmen, Cookies und Content, der direkt auf Search Engine Optimization (SEO) ausgerichtet ist, spielen dieser Neigung zusätzlich in die Hände. Resultierend aus einer derartig feinmaschigen Personalisierung entsteht so eine praktische Komfortzone an Informationen, die Filterbubble.

Experimente wie das von Wired-Redakteur Mat Honan im Jahr 2014 zeigen, wie personalisiert allein unser Facebook-Newsfeed aufgebaut ist und wie sehr die Algorithmen des Portals darauf aus sind, uns immer mehr Dinge zu zeigen, die uns gefallen könnten. Honan beschloss, im Zeitraum von 48 Stunden alles zu liken, was ihm Facebook vorschlagen würde. Die problematische Entwicklung, die sein Facebook-Feed daraufhin durchlief, ist nicht weiter unerwartet: Postings seiner Freunde gingen unter und wurden durch Beiträge großer “content-mills” wie der Huffington Post oder Buzzfeed ersetzt, gleichzeitig bekam er zusehends radikalere politische Inhalte präsentiert. Schuld an dem Wandel war ein Domino Effekt, der im Normalzustand etwas langsamer vorangeht. Durch ihre Likes verfolgen User_innen immer forcierter spezielle Nischen-Interessen, bis der Blick auf die Gesamtsituation verloren geht. Ein Prozess, der besonders bei politischen Themen potentiell gefährlich werden kann.

Konsequenzen

Ein fortwährendes Ausschließen von Inhalten oder Personen, die im persönlichen Newsfeed aufgrund divergierender politischer, ethischer oder gesellschaftlicher Standpunkte nicht erwünscht sind, führt schließlich zu einer nahtlosen Übereinstimmung zwischen Offline-Ich und Filterbubble – eine digitale Mündigkeit und die Möglichkeit, den eigenen Horizont ohne besonders große Anstrengung erweitern zu können, sind dann nicht mehr gegeben. Denn die ein oder andere entfreundete Person akzeptieren wir schulterzuckend als Kollateralschaden.

Die Fatalität der Angewohnheit des Entfolgens von Personen, deren Meinung man persönlich nicht vertritt, ist jedoch niemandem so recht bewusst: es wird so lange selektiert, abonniert, ignoriert und gefolgt, bis das Meinungsklima mit den eigenen Überzeugungen übereinstimmt. Kritik am System, politische Einstellungen, verschwörungstheoretische Gedankengänge – egal in welche Richtung, unter Gleichgesinnten sind die Hemmungen zu einschlägigen Äußerungen oder Postings wesentlich geringer. Dieses Verhalten spielte sich in vordigitalen Zeiten noch im Beisl beim Stammtisch ab, nun wird dafür die Kommentarfunktion verwendet.

Elisabeth Noelle-Neumanns Theorie der Schweigespirale aus den siebziger Jahren bewährt sich im digitalen Kontext nach wie vor: Im dunklen Beisl unter Freund_innen traut man sich weniger, gegen die hetzerische Meinung des schon leicht angetrunkenen lauten Kollegen etwas zu sagen, genauso verhält es sich online. In Kombination mit der Tendenz des Menschen, nur Informationen auszuwählen, die die eigene Meinung widerspiegeln, entstehen schlussendlich zersplitterte Massenöffentlichkeiten und ein verzerrtes Bild der mehrheitlichen Standpunkte.

Vor der daraus resultierenden Situation der Meinungsblindheit ist niemand gefeit. Meinungsäußerung und -vielfalt sind jedoch das höchste Gut im Kampf gegen Ignoranz und Intoleranz – schafft sich der Mensch hingegen in seiner Bubble ein allzu komfortables Klima, kommt es oft zu unreflektierten Äußerungen. Je nachdem, auf welcher Ebene und in welchem Ton diese dann verlautbart werden, ist ein offener Diskurs mit Andersdenkenden notwendig, um extreme Tendenzen zu vermeiden. Denn der Ausschluss gegenteiliger Standpunkte führt zu Engstirnigkeit – ein Verhalten, das sich hoffentlich bald aus unserem alltäglichen Denken verabschiedet.

Nichts ist problematischer für unabhängige Meinungsbildung als die Scheu vor Pluralität im Diskurs. Die digitale Welt zwingt ihre User_innen nicht, den ganzen sprichwörtlichen Kuchen zu essen, sondern präsentiert das schmackhafteste Stück. Sie drängt ihnen keine Artikel auf, die sie nicht lesen möchten und lässt sie im Extremfall im Glauben, Teil einer Mehrheit zu sein. Natürlich ist es legitim, entfernte Bekannte aufgrund geposteter radikaler Inhalte aus dem eigenen Newsfeed zu verbannen. Es sollte hingegen klar sein, dass ebendiese Personen deswegen weder zum Umdenken bewogen werden, noch mit der Verbreitung besagter Inhalte aufhören werden. Einfach wegklicken mag zwar persönlich leichter sein, lässt jedoch spätere Kritik an der unerwarteten öffentlichen Resonanz zu einem heiklen Thema wie aktuell der Flüchtlingskrise mehr als nur naiv erscheinen.

Als Medienmacher_in sollte man also – ganz im Sinne der Leserinnen und Leser – nicht der Einseitigkeit, sondern der Vielfalt verpflichtet sein, gleichzeitig stark zwischen meinungsbetontem und objektivem Content unterscheiden und die Pflicht der journalistischen Sorgfalt nicht außer Acht lassen – sowohl als Dienst an Konsument_innen, als auch an der Allgemeinheit.

Literaturtipp:

Pariser, Eli 2012. Filter bubble. Wie wir im Internet entmündigt werden. München: Hanser. Auf der Hauptbibliothek erhältlich, Signatur I 718863

Wired-Artikel: Honan, Mat 2014. „I liked everything i saw on facebook for two days. Here’s what it did to me“. In Wired, http://www.wired.com/2014/08/i-liked-everything-i-saw-on-facebook-for-two-days-heres-what-it-did-to-me/ 08.11.2014

Autorin: Sandrine Fackner
Erschienen in der Print Ausgabe 3 2015/16, S. 4f

Back To Top