24.01.2017
BlogDossier 3 - GesellschaftDossiers
Personalisierung ist eine tolle Sache. Sie ermöglicht, neue Informationen auf der Basis unserer bisherigen Aktivitäten zu erhalten. Durch sie entsteht auch das Phänomen der „Filterbubbles“, das dazu führen kann, dass wir uns intellektuell isolieren.
Das Internet ist mit ambitionierten Zielen gestartet: Dezentral, keine Hierarchien, freie Information für Alle. Social Media versprach uns mehr Partizipation, mehr Eigenverantwortung und Meinungsvielfalt. Die digitale Revolution versprach: „Jeder ist Sender und Empfänger gleichzeitig“.
Und diese Revolution ist eingetreten, denn die Eintrittsbarrieren, um zu publizieren und weltweit zu senden, sind mittlerweile äußerst gering: Man benötigt lediglich einen Computer mit Internetzugang, um auf einem Blog oder bei Facebook zu publizieren; Man benötigt nur ein aktuelles Smartphone und ist damit in der Lage, einen eigenen YouTube-Kanal zu betreiben und potentiell Milliarden an Menschen zu erreichen. Und das sogar in Echtzeit.
Und diese Möglichkeiten der Medienproduktion und der Kommunikation wird eifrig genutzt. So werden zum Beispiel täglich auf YouTube oder Facebook Videos mit einer Gesamtdauer von mehreren hundert Millionen Stunden wiedergegeben und Milliarden Aufrufe generiert. In Facebook sind täglich über eine Milliarde User aktiv und posten Inhalte.[1] [2]
Diese Informationsflut führt zur Notwendigkeit, die Inhalte zu strukturieren und zu filtern – Ein Vorgang, der übrigens nicht neu ist. Als im 16ten Jahrhundert durch das Aufkommen des Buchdrucks erstmals viele Informationen unterschiedlicher Art publiziert wurden, begann man, Seitennummerierungen, Registereinträge und Querverweise einzuführen, um den Informationsfluss unter Kontrolle zu bringen. Heute müssen Inhalte im Web müssen für eine sinnvolle Nutzung ebenfalls gefiltert und sortiert werden. Suchmaschinen wie Anbieter sozialer Medien versuchen dabei an Hand von Algorithmen zu beurteilen, was für uns zum jeweiligen Zeitpunkt „relevant“ ist. Google oder Bing versuchen aus der Suchanfrage und weiteren Informationen über den Benutzer und die Qualität der im Index der Suchmaschine bereitgestellten Websites die passende Sortierung zu liefern.
In sozialen Netzwerken wie Facebook wird jede einzelne Informationseinheit, jedes Posting analysiert und bewertet: Wie aktuell ist der Beitrag? Wie ist das Beziehungsverhältnis zwischen der Person, die postet und der Leserin oder dem Leser? Worum geht es? Welche Medieninhalte gibt es? So erhält die Fotogalerie zur Hochzeit des Cousins vor zwei Wochen dadurch mehr Relevanz als das Foto vom heutigen Mittagessen der Kollegin. Zusätzlich wird der Grad der Interaktion als Bewertungskriterium herangezogen: Was häufig und viel geliked und geteilt wird, wird häufiger angezeigt.
Deshalb sind die Inhalte, die uns in unseren „Social Newsfeeds“ präsentiert und angezeigt werden, noch viel stärker von unserem Verhalten bzw. der Einschätzung unseres Verhaltens durch die jeweiligen Anbieter geprägt, als bei der Sortierung von Suchergebnissen.
Dies führt zum Begriff der „Filterbubble“.
Dieser Begriff wurde vor einigen Jahren vom amerikanischen Internetaktivisten Eli Pariser in seinem gleichnamigen Buch geprägt[3] und beschreibt die Isolation gegenüber Informationen, die nicht dem Standpunkt des Benutzers entsprechen. Wir umgeben uns nur mehr mit Informationen, die unserem Weltbild entsprechen und unsere Meinung widerspiegeln.
Selbstverständlich unterstützen die verwendeten Algorithmen diesen Effekt: Dort, wo ich unter Gleichgesinnten bin, halte ich mich gerne auf. Dies passiert auch nicht uneigennützig für die Betreiber: Wer länger auf Facebook, YouTube oder Google unterwegs ist, konsumiert auf diesen Plattformen mehr an Werbung. Und davon profitieren die Inhaber.
Doch der Effekt ist nicht neu und schon gar keine Erfindung des Internet. In der „realen Welt“ werde ich mich bei der Wahl der Medien, die ich konsumiere, an meinem Weltbild orientieren, bei der Ausübung meiner Hobbies verbringe ich mehr Zeit unter Gleichgesinnten und am Stammtisch im Gasthaus finden sich als Gesprächspartner auch leichter Menschen mit ähnlichen Meinungen zu einem Gespräch zusammen.
Die tatsächlichen Auswirkungen dieses Filterblaseneffekts sind umstritten, da es erst wenige Untersuchungen gibt. Erste empirische Studien – wie zB die Auswertung von 50.000 Browserverläufen amerikanischer User durch die Universität Oxford[4] oder eine Studie amerikanischer Datenwissenschaftler mit Milliarden an [5]- zeigen einen sehr geringen Einfluss auf unsere Meinungsvielfalt. Auch wenn für manche Menschen Facebook zu einem Hauptkanal für Informationen geworden sein mag: Es wird bei kaum jemand die einzige Informationsquelle sein.
Doch MedienkritikerInnen beurteilen das anders und beschwören nahezu den Untergang der Menschheit durch die Nutzung sozialer Medien und das Internet an sich herbei.
Der amerikanische Autor Nicholas Carr meinte vor einigen Jahren, dass unser Denken durch die Nutzung des Internets verflacht, da man immer weniger in die Tiefe von Texten eintaucht und stattdessen nur mehr schnell und oberflächlich durch das Netz bewegen.[6] In einem 2013 erschienen Essay meint er, dass Wikipedia nur „ein blasser Abglanz der Britannica“ sei und kritisiert die Qualität von benutzergenerierten Inhalten.[7]
Sherry Turkle, eine amerikanische Soziologin und Medienkritikerin meinte „Das Internet hat uns vieles gebracht. Leider auch die Möglichkeit, nicht zu denken.“ Sie vertritt die Ansicht, dass wir „Alone Together“ sind: Mit vielen vernetzt, aber doch einsam. Dass wir uns durch unsere Aktivitäten in sozialen Netzwerken nach dem Motto „Ich teile, also bin ich“ definieren.[8]
Carr geht jedoch von Selbsterfahrung aus und berücksichtig nicht, dass sich auch die Arbeitswelt geändert hat, oder dass der Umgang mit einem neuen Medium auch neue Nutzungsverhalten bedingt. Turkle berücksichtig nicht, dass sich ein Großteil der User in sozialen Netzwerken passiv verhält oder es für viele einfach leichter ist, Gesagtes zu wiederholen.
Medienkritik ist so alt wie die Kommunikation selbst. Und mit jedem neuen Medium gerät ein Gefüge alter Medien und deren Nutzungspraktiken durcheinander. Auch wenn das „World Wide Web“, wie wir es heute kennen und verwenden bald 20 Jahre alt ist und Facebook kürzlich seinen dreizehnten Geburtstag gefeiert hat: Für viele Menschen ist die Nutzung noch immer ein gewisses Neuland, das erst entdeckt werden muss.
Auch die aktuellen Diskussionen rund um Themengebiete wie „Hasspostings“ oder den sogenannten „Fake News“ zeigen, dass sich die Gesellschaft erst orientieren muss. Es wird schon das „postfaktische Zeitalter“ heraufbeschwört, wo wir uns nur mehr an Emotionen orientieren und Fakten ignorieren – Doch krude Verschwörungstheorien gab es schon vor dem Fernsehen und Boulevardmedien, die sich „flexibel“ in der Interpretation von Fakten verhalten, sind ebenfalls keine Erfindung des Internets.
Das Großartige am Web: Die Offenheit und Möglichkeit der Partizipation. Soziale Medien und das Internet per se ermöglichen es, andere Perspektiven einzunehmen, und sich so in die Situation und das Meinungsbild eines rechtsradikalen Studenten aus Berlin, einer Austauschstudentin in Südafrika oder einem mexikanischen Unternehmer zu versetzen.
Die große Menge an Informationen und Meinungen zu filtern und zu sortieren ist jedoch eine Notwendigkeit. In den klassischen Medien sorgen JournalistInnen als „Gatekeeper“ für das vorsortieren und bewerten; in den „neuen Medien“ verlagert sich diese Aufgabe hin zu dem einzelnen Benutzer. Jeder ist sein eigener Gatekeeper. Mit dem Risiko, sich zu einseitig zu informieren.
Aber was wäre die Alternative zu dem Problem der „Filterbubble“? Ein identer Informationskanal für alle Benutzer? Eine standardisierte Meinung zu Themen wie Migration, Politik, Wissenschaft, Sport, Bildung? Und wer entscheidet bei sozialen Netzwerken dann darüber, welche Inhalte zulässig sind und welche nicht?
Facebook, Twitter und andere soziale Plattformen sind keine Medienunternehmen im Sinne einer Zeitung, denn die Inhalte kommen von den Nutzern selbst. Die Betreiber dieser Plattformen für die Inhalte haftbar zu machen wäre in etwa so, als würde man den Hersteller des Fernsehers dafür verantwortlich machen, welche Inhalte in der Nachrichtensendung gezeigt werden, statt der zuständigen Redakteure.
Was es daher braucht: Eine starke Förderung der Medienkometenz.
________________________________________
[1] https://www.youtube.com/yt/press/de/statistics.html
[2] https://techcrunch.com/2016/01/27/facebook-grows/
[3] Eli Pariser: The Filter Bubble: What the Internet Is Hiding from You. Penguin Press, New York, 2011, ISBN 978-1-59420-300-8; Ted-Talk zum Thema: https://www.youtube.com/watch?v=B8ofWFx525s
[4] http://poq.oxfordjournals.org/content/early/2016/03/21/poq.nfw006.short
[5] http://science.sciencemag.org/content/early/2015/05/06/science.aaa1160
[6] Nicholas Carr: The Shallows: What the Internet is Doing to Our Brains, ISBN 978-0393339758
[7] Nicholas Carr: The amorality of Web 2.0, http://www.roughtype.com/?p=110
[8] Sherry Turkle, Alone Together: Why We Expect More from Technology and Less from Each Other, ISBN 978-0465031467; Ted-Talk https://www.ted.com/talks/sherry_turkle_alone_together
Bio:
Jürgen Haslauer ist seit 1993 im Bereich digitaler Medien und Kommunikation tätig. Er erarbeitet Online-Strategien für Unternehmen und unterstützt sie bei deren Umsetzung. Als Mitglied des Chaos Computer Club Wien (https://c3w.at), der sich dem kritischen Umgang mit elektronischen Medien widmet, hat er 2016 die „Privacy Week“ initiiert, eine Veranstaltungsreihe zum Thema Privatsphäre im digitalen Zeitalter.
WerdeDigital.at
Institut zur Förderung digitaler Mediennutzung