FILTERBLASEN UND ECHOKAMMERN – EINE GEFAHR FÜR UNSERE DEMOKRATIE?
Von Anthea Waldmann
Sind wir alle Gefangene der eigenen Filterblase und reden online nur noch aneinander vorbei? Was machen Facebook, Instagram und Co mit unserer Demokratie, die doch auf einen gemeinsamen Diskurs angewiesen ist? Zum aktuellen Forschungsstand erschienen in diesem Semester zwei Sonderfolgen des Kupferblau Podcasts „Gesprächsstoff”. Wer keine zwei Stunden zum Hören hat, kann aber auch einfach diesen Beitrag lesen!
“It is a truth universally acknowledged that two corona-bored millenials with a large amount of time on their hands must be in want of a podcast…and it must be, of course, about internet stuff.”
So lyrisch hätte diese Geschichte beginnen können – das Motiv für unseren Podcast über Filterblasen und Echokammern war jedoch weit weniger romantisch. Das Thema beschäftigte uns nämlich schon seit dem ersten Semester Medienwissenschaft – auf den Trichter (!) gebracht hatte uns Prof. Zurstiege, der uns in seiner Vorlesung in ein kleines Projektteam zusammenstecke. Wir sammelten (dezent schockiert von Eli Parisers berühmten TED-Talk) Ideen, wie man aus der eigenen Filterblase „aussteigen” kann, also den vermuteten Negativeffekten von Algorithmen entgeht. Auch zur „Entschärfung” der aufgeheizten Stimmung online (Stichwort hate speech) hatten wir Impulse gefunden: Die Hintergrund-These, dass solche Phänomene den demokratischen Diskurs mit einer Art Cyberpolarisierung und Fragmentierung von Öffentlichkeit effektiv bedrohten, stellten wir jedoch nicht grundsätzlich in Frage.
Dabei war die Filterblasen-Theorie von Pariser 2011 „nur” das gewesen – eine Theorie, die die Forschung seither überprüft. Anspruch unseres Podcasts sollte daher sein, ein wenig mehr aktuelle Wissenschaft in den Hype „Filterblase” zu bringen. Auch den oft beschworenen Zusammenhang der davon begünstigten Echokammern (in der man nur noch die eigene Sichtweise hört) mit Radikalisierung im Netz sollte beleuchtet werden – müsste man die Leute vielleicht einfach wieder an eine gemeinsame Öffentlichkeit andocken und sie mit anderen Standpunkten versorgen? Zerstören Filterblasen und Echokammern tatsächlich unsere Demokratie, weil wir nur noch mit unseresgleichen über Dinge kommunizieren, die nur uns wichtig sind?
DEUS EX MACHINA – BÖSE, BÖSE ALGORITHMEN?
Um erst einmal grundsätzlich zu klären, wie diese ominösen Filterblasen eigentlich technisch zustandekommen, interviewten wir Prof. Dr. Sonja Utz, die am Leibniz Institut für Wissensmedien mit einem Schwerpunkt auf Sozialen Medien und Machine Learning forscht. Sie erklärte uns, dass Personalisierung an sich eine recht normale und oft auch wünschenswerte Sache sei – immerhin würden so Suchergebnisse, Informationen und eben auch die unvermeidbare Werbung für Nutzer*innen relevanter. Studien hätten jedoch gezeigt, dass Social Media User*innen trotz Algorithmen im Vergleich zum klassischen Mediensystem (Heimatzeitung, Lieblingssender) sogar eher über Informationsschnipsel „stolperten”, die nicht ihren Präferenzen entsprachen. Davon, dass Filterblasen in hermetisch abgeriegelten Teilrealitäten endeten, könne daher nicht die Rede sein. Bedenklich sei vielleicht künstliche Intelligenz, die wir irgendwann selbst nicht mehr verstehen – und natürlich brauche es auch effektive Rahmenbedingungen in Sachen Datenschutz und Diskursmoderation, wie DSGVO und NetzDG. Sie erinnerte uns auch daran, dass der Echokammer-Effekt viel älter ist als das Internet, unsere menschlichen Vorlieben also wahrscheinlich der entscheidendere Faktor für den Wildwuchs in so manchem Online-Forum seien.
WE’RE ONLY HUMAN – AUA, DISSONANZ!
Mit anderen Meinungen konfrontiert zu werden, bedeutet nämlich immer Stress für’s Gehirn, erklärte uns Lisa Rabl, unsere Expertin für Psychologie. Wir „füttern” unsere technischen Helferlein daher mit unserem eigenen (unbewussten) Bias und machen es uns in unserer handverlesenen Echokammer bequem – quasi eine digitale Erweiterung von kognitiven Verzerrungen. An sich seien aber homogene Netzwerke und thematisch fokussierte Communities erstmal nichts Schlimmes; Gefährlich werde es ihrer Meinung nach vor allem dann, wenn polarisierende, politische Themen so verhandelt würden, dass Menschen zu Schaden kommen. Zudem könnten extremere Äußerungen in Diskursräumen durchaus negative Auswirkungen auf die Beteiligungsbereitschaft gemäßigterer Kommenator*innen haben – vielleicht also doch eine Gefahr für den demokratischen Diskurs?
DER TON MACHT DIE MUSIK – SCHWEIGESPIRALE 2.0
Hate Speech: Eine Folge von Echokammer-Effekten? Prof. Dr. Zurstiege konnte hierzu aus seiner aktuellen Forschung berichten, dass nicht unbedingt nur die Homogenität der (Informations-)Umgebung eines Users, sondern auch der Ton in dieser Umgebung für Radikalisierung entscheidend sein könnte. Diese extremeren Äußerungen sorgen nicht selten dafür, dass Negativismus in sozialen Netzwerken überwiegt – wenn die Ränder am lautesten schreien und die Mitte verstummt, entfernen wir uns immer weiter von konstruktiver Streitkultur. Präventive „Deeskalationsmaßnahmen” könnten durchaus in das Design von Benutzeroberflächen sozialer Netzwerke eingebaut werden; Ideen, an denen gerade geforscht wird, sind zum Beispiel „Speed Bumps” (Reflektieren des eigenen Standpunkts) vor dem Kommentieren. Dennoch bleibt Guido Zurstiege „ein Stück weit kulturpessimistisch” bei der weiteren Entwicklung des Online-Diskurses und betont die (aufklärerischen?) Errungenschaften von Qualitätsjournalismus, Fernsehen und Radio, die neben den Neuen Medien nicht aus Bequemlichkeit in Vergessenheit geraten sollten.
CULTURE, UPLOADED – DIGITALE TRIBALISTEN ENTERN DAS NETZ
Doch wie weit kommen wir angesichts der Herausforderungen einer immer komplexeren Welt wirklich mit Aufklärung und Qualitätsmedien? Warum verbreiten sich die abstrusesten Fake News wie Lauffeuer in sozialen Netzwerken, wenn uns ein nie dagewesener Wissensspeicher zur freien Verfügung steht? Dass der Wahrheitsgehalt nicht unbedingt der entscheidende Faktor für Akzeptanz und Verbreitung einer Information ist, hatte unser vierter Gast, der Kulturwissenschaftler und Netzaktivist Michael Seemann, bereits in einem kleinen aber feinen Versuch herausgefunden. So waren in zwei besonders prägnanten Beispielen von Fake News bei der Visualisierung der beteiligten Twitter-Accounts durchaus zwei Wolken (Blasen?) erkennbar. Doch im Widerspruch zu den Vorhersagen der Filterblasen-Theorie hatten die eifrigen Fake-News-Verbreiter*innen eine Richtigstellung der „Mainstream-Medien” bekommen, waren also nicht in einer abgeriegelten Teilrealität blauäugig auf eine Ente hereingefallen.
Gruppenzugehörigkeit, die eigene Identifikation als Mitglied eines abgegrenzten „Stammes”, schien als Kriterium bei der Beurteilung von Informationen wichtiger zu sein als deren innere Logik. Diese neuen, oft neurechten Stämme in Zusammenspiel mit dem vernetzenden Potenzial Neuer Medien könnten unserer institutionalisierten Demokratie durchaus gefährlich werden, zum Beispiel, wenn ihr verbindendes Ziel ist, selbige besser heute als morgen abzuschaffen.
DAS URTEIL: ALLES FILTERBLA(SE)?
Unsere Expert*innen waren sich einig: Die Filterblasen-Theorie mit ihrer vermuteten, durchschlagenden Wirkung kann bestenfalls als überschätzt, eventuell sogar als überholt gelten. Vieles deutet darauf hin, dass sich die vom „Mainstream”-Diskurs abgelöste Einzelrealität der User zumindest auf der rein technischen Ebene nicht nachweisen lässt. Auch sollten wir nicht vergessen, dass es bei allen Schattenseiten auf der anderen Seite auch jede Menge Licht gibt: So gewinnen durch die gleichen Mechanismen plötzlich Minoritäten oder Anliegen auf Social Media eine Stimme, die im Diskursraum des klassischen Mediensystems bisher wenig sichtbar waren (man denke an #MeToo oder #BlackLivesMatter). Das bereichert demokratische Partizipation – wenn es uns gelingt, auch online ein zugewandtes, konstruktives Miteinander vor allen zu schützen, die es absichtlich stören. Ob sie durch Echokammer-Effekte erklärbar ist oder nicht: Radikalisierung im Netz hat auch offline gefährliche Konsequenzen. Es gibt daher auch online mehr Zivilcourage von der schweigenden Mehrheit einzufordern, wachsam zu bleiben und schützende Regeln effektiv durchzusetzen, damit die Neuen Medien das werden, was sie sein können: Eine Chance für ein Mehr an Demokratie und Partizipation.
Angefixt? Dann hört in den Podcast rein! Noch mehr zum Thema Filterblasen & Echokammern sowie alle Expert*innen-Interviews in voller Länge gibt es hier:
Quellen:
- https://open.spotify.com/episode/112nw4TlB8wJIJ98rsScH6
- https://open.spotify.com/episode/6cjOaceY4F23T6dJZnHcYm
- https://www.ted.com/talks/eli_pariser_beware_online_filter_bubbles?language=de
- https://www.ctrl-verlust.net/digitaler-tribalismus-und-fake-news/