zur Navigation springen

Populismus. Positionen. Perspektiven. : Mittendrin in der Filterblase

vom
Aus der Onlineredaktion

Das Internet verändert unsere Wahrnehmung der Welt. Das hat auch positive Seiten.

svz.de von
erstellt am 15.Apr.2017 | 06:25 Uhr

Hilfe! Es passieren Dinge, die wir nicht verstehen. Etwa Trump und Brexit: Wir wachen morgens auf, und die Welt ist nicht mehr, wie sie war. Populisten steigen auf, bewusst falsche Meldungen werden gestreut, Hetze macht Karriere und erreicht Millionen Menschen. Wie konnte das passieren?

Eli Pariser, Jurist und Politologie aus den USA, bietet eine Antwort, die verständlich ist und plausibel klingt: „The Filter Bubble. What the Internet is Hiding from You“ (deutsche Ausgabe: siehe Buchtipp) heißt sein Werk. 2011 geschrieben, machte es ab 2015 Karriere.

Seine Erklärung für den zunehmenden Populismus klingt mit unserer heutigen Alltagserfahrung einleuchtend. Wer in sozialen Netzwerken unterwegs ist oder in Suchmaschinen sucht, bekommt Inhalte, die vom bisherigen Nutzungsverhalten abhängen. Das können die digitalen Freunde oder Follower sein, oder auch die eigene Suchhistorie bei Google.

Kurz gesagt: Politisch Rechte bekommen mehr rechte Inhalte, Linke mehr linke Inhalte. Ökos mehr über Naturschutz, Faschisten mehr über Neonazis. Golf-Freunde mehr über Sport oder Autos, je nachdem. Wir bekommen also vermehrt Inhalte angezeigt, die unseren Ansichten und Gewohnheiten entsprechen. Dadurch, so die These, verstärken sich extreme Meinungen. Wer sich früher als Außenseiter sah, sieht sich durch die Filterblase als Teil einer großen Gemeinschaft Gleichgesinnter.

Unsere Alltagserfahrung sagt:Ja, es gibt sie, die Filterblase. Aber was sagt die Wissenschaft? „Es ist nicht wissenschaftlich nachgewiesen, dass diese Filterblasen tatsächlich existieren. Pariser hat sie zwar plausibel beschrieben, aber die Wissenschaft tut sich mit einem Nachweis schwer”, sagt Stefan Weichert, Professor an der Hamburg Media School. Und Katarina Bader, Professorin an der Hochschule der Medien in Stuttgart, sagt: „Die Filterblase ist nicht komplett nachgewiesen. Es gibt dazu eine Studie von Facebook selbst. Die sagt: Algorithmen sind gar nicht so mächtig. Die Studie zeigt aber auch, dass die Auswahl der User sehr mächtig ist – und die führt ja auch zu einer Filterblase.“

Das Problem der Wissenschaftler: Filterblasen entstehen durch Algorithmen, die nicht öffentlich sind, und die sich dazu auch noch ständig ändern.

Katarina Bader bezieht sich auf eine Untersuchung der Facebook-Mitarbeiter Eytan Bakshy und Solomon Messing, die im renommierten Wissenschaftsmagazin „Science“ 2015 veröffentlicht wurde und auf der Auswertung der Nutzungsdaten von 10,1 Millionen Facebook-Nutzern in den USA basiert. Das Ergebnis: Durch den Facebook-Algorithmus bekommen Konservative fünf Prozent und Liberale acht Prozent weniger Meinungen, die ihrer Grundausrichtung widersprechen.

Im Klartext: Die Filterblase wäre demnach kleiner als unsere Alltagserfahrung vermuten lässt. Das Problem: Die Daten der Forscher sind nicht öffentlich zugänglich, ihre Werte nicht von unabhängigen Wissenschaftlern verifizierbar. Und Facebook hat kein Interesse daran, das Thema Filterblase großzureden.

Eine andere Studie zum Thema Filterblase bringt dagegen ein erschreckendes Nebenergebnis: Forscher aus Oxford und Stanford untersuchten 2016 mit Daten der Microsoft-Suchmaschine Bing das Nutzungsverhalten von 1,2 Millionen Menschen. Erschreckendes Ergebnis: „Ausgewertet wurden aber nur die Daten von 50  000, weil lediglich vier Prozent des Samples das Kriterium ,aktiver Nachrichtenkonsum’ erfüllen“, berichtete die „Frankfurter Allgemeine Sonntagszeitung“.

Ist also gar nicht die Filterblase das Problem, sondern das Desinteresse an Politik generell? Und verstärkt vielleicht das Internet dieses Desinteresse? Sorgt das weltgrößte Informationsnetz am Ende dafür, dass wir weniger politische Inhalte bekommen, dafür umso mehr Katzenbilder?

Medienprofessor Weichert stimmt dem nicht zu: „Goethe hat sich schon echauffiert über die Beschleunigung der Kommunikation. Kulturpessimismus ist ein natürlicher Reflex. Sobald man gelernt hat das zu verstehen, verliert man die negative Haltung.“ Martin Emmer, Professor für Mediennutzung an der Freien Universität Berlin, stimmt dem zu: „Ich würde sagen, dass man bei solchen hysterischen Debatten über einzelne Phänomene nicht vergessen sollte, dass das Internet eben auch erhebliche Fortschritte für uns alle in sehr vielen Lebensbereichen ermöglicht.”

Neue Medien haben immer skeptische Stimmen hervorgerufen. So behauptete etwa die Kommunikationswissenschaftlerin Elisabeth Noelle-Neumann in den 1970er Jahren, dass das Massenmedium Fernsehen Minderheitenmeinungen unterdrücke und sprach von einer „Schweigespirale“ - also quasi dem umgekehrten Phänomen der Filterblase. Emmer: „Die Forschung zeigt, dass sich tatsächlich innerhalb solcher Filterblasen Meinungen radikalisieren und zugleich homogenisieren; wer in der Filterblase steckt, glaubt häufiger, dass seine Meinung von viel mehr anderen geteilt wird, als es tatsächlich der Fall ist.“

„Jede neue Technik hat negative Folgen und löst Kulturpessimismus aus. Jeder Fortschritt benötigt eine zivilgesellschaftliche und rechtliche Einordnung. Das ist auch jetzt nötig“, sagt die Stuttgarter Onlinejournalismus-Professorin Bader – und liefert die Einordnung gleich mit: „Das ist jetzt eine wirkliche Zeitenwende, ein großes neues Ding, eine echte Revolution, das Ende des industriellen Zeitalters. Früher gab es Massenmedien, die im industriellen Maßstab für alle dasselbe produzierten. Heute ist industrielle Produktion möglich, die gleichzeitig maßgeschneidert auf den einzelnen Nutzer ist. Das wird mehr und mehr das Geschäftsmodell der großen Medienanbieter. Die Zivilgesellschaft muss Strategien entwickeln, damit umzugehen, dass wir Bürger, ohne bewusst zu wählen, nicht mehr alle dasselbe bekommen.“

Und welche ganz persönlichen Strategien haben die Internet-Forscher?

Stefan Weichert aus Hamburg: „Ich like bewusst die AfD oder deren Politiker, ich folge denen auch bewusst bei Twitter, ich befreunde mich mit Politikern aller Couleur und like Parteien, die nicht der allgemeinen Überzeugung folgen. Das Schöne am Internet ist ja, dass man mit Andersdenkenden ins Gespräch kommen kann, auch wenn das oft frustrierend ist.“

Martin Emmer aus Berlin:„Heute ist die Versuchung groß wie nie zuvor, unangenehmen Ansichten und Themen aus dem Weg zu gehen. Ich denke, jede Bürgerin und jeder Bürger muss sich der eigenen Verantwortung bewusst sein, die darin liegt, andere Meinungen zumindest anzuhören und sich mit ihnen auseinanderzusetzen. Das ist manchmal etwas unangenehm und kann schmerzhaft sein, wenn wir es aber nicht tun, arbeiten wir an der Zerstörung der Fundamente unserer Demokratie mit.“

Kann Facebook radikalisieren?

Er radikalisierte sich im Internet. Ein Satz, den man nach schrecklichen Meldungen immer wieder hört. Man nimmt ihn so hin,  erklärt wird er selten. Doch kann das Netz  Meinungen so zuspitzen, dass es kein Hinterfragen mehr gibt? Ein Experiment zeigt: Sich eine Filterblase zu bauen, ist eine Sache von wenigen Klicks. Bei Facebook beispielsweise reicht es, ein paar „Likes“ vorzulegen – und schon schlägt das Netzwerk ähnliche Seiten vor. Durch stumpfes Klicken des Gefällt-mit-Knopfes ist es  ein leichtes Spiel, einen fiktiven Neonazi  zu basteln.  Innerhalb weniger Tage habe ich so das Fake-Profil „Christian“ erstellt. Seine Facebook-Welt bestand aus Berichten über böse Flüchtlinge, hier und da ein Hitlerbild und den teils sehr emotionalen Aussagen seines rechten Dunstkreises, inklusive Antisemitismus und Einsamkeit. Es ist ein Netzwelt-Diskurs, der  rechte Einstellungen zu zementieren scheint. Und doch: Umkrempeln kann einen diese Filterblase nicht. Im Gegenteil. Die Recherche darin wurde zunehmend unangenehm.  Am Ende war ich sogar ein wenig erleichtert, als Facebook den fiktiven Christian plötzlich gesperrt hatte. Vielleicht kann das  Internet  als Meinungs-Katalysator wirken – umkrempeln kann es nicht so schnell. Und auch für eine Radikalisierung braucht es wohl  eine Offlineblase mit Mangel an Meinungsaustausch und Medienkompetenz. Zwei Punkte, die nicht mit Facebook-Algorithmen zu lösen sind.

Mira Nager

 


zur Startseite

Gefällt Ihnen dieser Beitrag? Dann teilen Sie ihn bitte in den sozialen Medien - und folgen uns auch auf Twitter und Facebook:

Kommentare

Leserkommentare anzeigen