In der Arbeit soll untersucht werden, inwiefern die von den Internetdiensten Google und Facebook eingesetzten algorithmenbasierten Filter-, Sortier- und Personalisierungsmechanismen medienpädagogisch relevant sind.
Das Internet hat sich verändert. Die einstige Vision vom demokratischen Internet mit unendlich viel Platz für vielfältige Inhalte und Informationen sowie niedrigen Eintrittshürden, musste einer Realität weichen, die weit anders aussieht.
Im Kontext partizipativer Medienkulturen stellen nutzergenerierte Inhalte mittlerweile die Grundlage schlechthin für die meisten Web-Dienste dar. Die unausweichliche Folge: In Zeiten der Digitalisierung wird die Informationsflut unüberschaubar und für den User kaum zu bewältigen. An diese Stelle treten sogenannte "Informationsintermediäre" - wie soziale Netzwerkplattformen (z. B. Facebook) und Suchmaschinen (z. B. Google). All diese nutzen algorithmische Priorisierungssysteme in Form von Filtermechanismen und Empfehlungssystemen, die dabei helfen sollen, Informationen zu sortieren und gesuchte Inhalte effizienter zu finden.
Inhalt
1 Einleitung und Relevanz
1.1 Forschungsstand
1.2 Erkenntnisinteresse, Forschungsfrage und Aufbau
2 Funktionsweise der algorithmenbasierter Filtermechanismen
2.1 Erfassen von Daten: Google und Facebook
2.2 Funktionsweise der Algorithmen
3 Traditionelle Medien versus Online-Informationsintermediäre
4 Diskussion: Medienpädagogische Relevanz
4.1 Zwischen Selbst- und Fremdbestimmung
4.2 Eingeschränkte Partizipationsmöglichkeiten
4.3 Verzerrte Welt- und Selbstsicht
4.4 Einfluss auf den Selbstentwurf
5 Exkurs: Habitus und die Auswahl von Medieninhalten
6 Filtermechanismen vor dem Hintergrund Digitaler Ungleichheit
7 Medienkompetenz - die Kernkompetenz im WWW
8 Medienpädagogische Praxis
8.1 Mögliche Maßnahmen
9 Fazit und Ausblick
10 Verzeichnisse
10.1 Literaturverzeichnis
10.2 Abbildungsverzeichnis
1 Einleitung und Relevanz
„And your filter bubble is your own personal, unique universe of information that you live in online. And what’s in your filter bubble depends on who you are, and it depends on what you do. But the thing is that you don’t decide what gets in. And more importantly, you don’t actually see what gets edited out.”1
Das Internet hat sich verändert. Die einstige Vision vom Internet als großer „Gleichmacher“ und demokratischstem Medium aller Zeiten2 mit unendlich viel Platz für vielfältige Inhalte und Informationen sowie niedrigen Eintrittshürden, sodass einem jedem Gehör verschafft werden kann, musste einer Realität weichen, die weit anders aussieht. Im Kontext partizipativer Medienkulturen stellen nutzergenerierte Inhalte (user-generated content) mittlerweile die Grundlage schlechthin für die meisten Web-Dienste dar.3 Es werden Fotos und Videos hochgeladen, Blogeinträge verfasst - und ganz nebenbei „gelikt“ und „retweetet“. Die unausweichliche Folge: In Zeiten der Digitalisierung erscheint die Menge an Informationen unüberschaubar und für den einzelnen Internetnutzer4 kaum noch zu bewältigen. An dieser Stelle wird die Rolle sogenannter „Informationsintermediäre“ offensichtlich. Unter diesem Begriff können unterschiedliche Plattformen beziehungsweise Dienste zusammengefasst werden: Soziale Netzwerkplattformen (z.B. Facebook), Suchmaschinen (z.B. Google) und Nachrichtenaggregato- ren (z.B. Reddit).5 All diese nutzen algorithmische Priorisierungssysteme in Form von Filtermechanismen und Empfehlungssystemen, die dabei helfen sollen, die Informationsflut zu bewältigen und gesuchte Inhalte effizienter zu finden. Sie üben vor- oder nachgelagerte Vermittlungsfunktionen aus und beeinflussen damit, „welche Inhalte für die Nutzer überhaupt auffindbar, sichtbar und damit wahrnehmbar sind, und beeinflussen als bewertende, gewichtende und vorselektierende Filter die Vielfalt der genutzten Inhalte“.6 Die Algorithmen entscheiden also nicht nur, welche Inhalte den Nutzern präsentiert werden, sondern auch, welche Inhalte ihnen vorenthalten werden. Dies geschieht anhand bestimmter Kriterien. Weit verbreitet und kontrovers diskutiert ist die personalisierte Suche, durch die bestimmte Verhaltensweisen der Nutzer kategorisiert werden und ihm darauf individuell auf ihn zugeschnittene Ergebnisse präsentiert werden. Laut dem Internetaktivisten Eli Pariser begann die Ära der Personalisierung im Dezember 2009, als der Suchmaschinenanbieter Google die standardisierten Suchergebnisse durch individuelle Informationszuschnitte anhand gesammelter Daten (57 Signale7 ) ersetzte.8 Die Grundlage für die Filterung und Informationsaufbereitung liefern die Nutzer selbst: All ihre Aktivitäten im Netz werden aufgezeichnet und gesammelt, um anschließend ein Profil vom jedem Einzelnen zu erstellen. Wieso Plattformen wie Facebook und Google Sortier- und Filterleistungen übernehmen? Dahinter stecken ökonomische Interessen: Die Konzerne wollen, dass sich der Nutzer wohlfühlt, weswegen sie ihm nur Inhalte zeigen, die seiner Gesinnung entsprechen.9 Angestrebt wird eine größtmögliche Verweildauer des Nutzers auf der Plattform, um ihm so viel Werbung wie möglich anzubieten und so im besten Fall eine kommerzielle Transaktion auszulösen.10 Diese Werbeanzeigen sind wiederrum - auf Grundlage gesammelter Daten - personalisiert, denn je besser man eine Zielgruppe kennt, desto größer sind die Umsätze. Eine Einflussnahme auf das eigentlich offene, dezentrale Internet wird auch durch die Politik angestrebt, die Regulierungs- und Kontrollfunktionen übernehmen will.
Der Begriff der Filterblase - oder auch Filter Bubble - wurde 2011 von Eli Pariser geprägt, welcher in seinem Buch „The Filter Bubble: What the internet is hiding from you“11 die zunehmende Tendenz der Personalisierung beschreibt und gesellschaftliche Auswirkungen aus diesem Prozess ableitet. Das Phänomen der „Echokammer“ („echo chamber“) wurde erstmals von Sunstein12 beschrieben und meint die menschliche Neigung, sich mit Menschen zu umgeben, die einem ähnlich sind sowie die eigene Weltsicht - in einer Art „Echo“ - reflektieren. Dieser Echokammer-Effekt reproduziert sich auch auf sozialen Netzwerken und wird dort noch weiter verstärkt. Basierend auf bestehenden sozialen Kontakten werden weitere ähnliche Personen vorgeschlagen. Dadurch bekommen wir „also verstärkt Nachrichten und Informationen aus demselben Spektrum von Meinungen, die wir schon unterstützen oder die sich mit unseren gut ergänzen“13. Den Unterschied im Wirken der Effekte Filterblase und Echokammer beschreiben Stark et al. sehr trennscharf: „Während sich die Filterblase auf die Bildung fragmentierter Teilöffentlichkeiten bezieht und damit die Risiken der Nutzung und Verbreitung von Al- gorithmen-basierten Informationen in den Vordergrund stellt, stützt sich die Metapher der Echokammer auf den Verlauf gruppendynamischer Meinungsbildungsprozesse in solchen personalisierten Informationsumgebungen.“14 Man könnte also resümieren, dass der Filterbla- sen-Effekt dem der Echokammer als Bedingung vorgelagert ist. Nur, wenn die Informationen nach Interessen und Einstellungen gefiltert werden, ist es möglich, dass man in Sozialen Netzwerken lediglich die gleiche Weltsicht reflektiert bekommt.
1.1 Forschungsstand
Aktuell sind die Phänomene Filterblase und Echokammer - trotz des disziplinenübergreifenden wissenschaftlichen Interesses - noch nicht hinreichend erforscht. Die Perspektive der Nutzer wird dabei kaum beachtet. Begründet liegt dies insbesondere in der methodischen Schwierigkeit, diese Effekte zu erforschen: Nicht nur, dass computervermittelte Kommunikationsinhalte, deren Wirkung sowie die Rezeption der Internetnutzer analysiert werden müssten, um handkräftige Aussagen zu tätigen. Den größten Stolperstein bilden die Algorithmen, welche von den Unternehmen geheim gehalten werden.15
Die Ergebnisse bestehender Studien deuten darauf hin, dass sowohl der Effekt der Filterblase als auch der Einfluss der sozialen Netzwerke auf Meinungsbildungsprozesse - zumindest zum jetzigen Zeitpunkt - geringer als gedacht ausfallen.16 Die vorliegenden Studien weisen teils sehr ambivalente Ergebnisse auf. Einige Untersuchungen sprechen - entgegen des öffentlichen Diskurses - sogar von einer verstärkt polarisierenden Wirkung der sozialen Netzwerke.17 Insgesamt gesehen, liegen gegenwärtig jedoch noch zu wenig empirische Ergebnisse vor, um fundierte Aussagen zu möglichen Personalisierungseffekten sowohl auf individueller als auch gesellschaftlicher Ebene zu treffen.18
Vor allem im Bereich der Medien, Kommunikations- und Publizistikwissenschaften wurde einige Beiträge19 veröffentlicht, die Filtermechanismen vor dem Hintergrund der gesellschaftlichen Bedeutung von Informationsintermediären, den Veränderungen im Journalismus und den Einfluss auf Meinungsbildungsprozesse betrachten.
Innerhalb der Disziplin der Medienpädagogik befindet sich die Auseinandersetzung noch in den Anfängen - jedoch mit steigender Tendenz. Fasst man den thematischen Rahmen etwas größer lassen sich einige Artikel und Publikationen vor dem Hintergrund der Transformationsprozesse im Internet finden. In diesen Beiträgen20 wird die Regulierung insbesondere vor dem Hintergrund Digitaler Ungleichheit sowie der sich verändernden Machtstrukturen zwischen Akteuren der Wirtschaft sowie Politik und dem Internetnutzer beleuchtet.
1.2 Erkenntnisinteresse, Forschungsfrage und Aufbau
In vorliegender Arbeit soll untersucht werden, inwiefern die von den Internetdiensten Google und Facebook eingesetzten algorithmenbasierten Filter-, Sortier- und Personalisierungsmechanismen medienpädagogisch relevant sind. Vor diesem Hintergrund werden Effekte rund um Filterblasen und Echokammern und ihre (möglichen) individuellen als auch gesellschaftlichen Auswirkungen im Spannungsfeld zwischen Freiheit und Kontrolle diskutiert (4). In den beiden darauffolgenden Kapiteln wird ein Bezug zwischen Internetnutzung und Habitus (5) hergestellt und die Brücke zur Digitalen Ungleichheit (6) geschlagen. Als Quintessenz daraus ergibt sich die enorm wichtige Bedeutung eines kompetenten und selbstbestimmten Umgangs mit dem Medium Internet, die in Form der Medienkompetenz daherkommt und im Kapitel 7 näher beleuchtet wird. Daran anschließend sollen Überlegungen folgen, inwieweit die medienpädagogische Praxis auf die darzulegenden Transformationsprozesse im Internet reagieren kann und muss (8). Abgerundet wird die Seminararbeit durch ein Fazit und einen Ausblick (9).
2 Funktionsweise der algorithmenbasierter Filtermechanismen
Um die Relevanz von algorithmengesteuerten Priorisierungs- und Empfehlungssystem mit den Effekten der Filterblase und Echokammer medienpädagogisch einschätzen zu können, ist es zunächst zwingend notwendig, zum einen die Erfassung der Daten, auf deren Grundlage die Algorithmen arbeiten, sowie zum anderen die dahinterstehende Funktionsweise näher zu erläutern.
2.1 Erfassen von Daten: Google und Facebook
Google erfasst unterschiedliche Arten von Daten: Neben Daten zu den Aktivitäten der Nutzer (IP-Adresse, Standort, besuchte Webseiten ect.), werden auch persönliche Daten (Name, Geschlecht, Geburtsdatum ect.) gespeichert. Darüber hinaus sind auch die Inhalte interessant, die die Nutzer selbst generieren (Kontakte, Kalendertermine, Fotos ect.).
Laut der Datenrichtlinie von Facebook, die auf ihrer Webseite einsehbar ist, erfasst die soziale Netzwerkplattform unterschiedlichste Arten von Daten:
- Aktivitäten des Nutzers und die von ihm bereitgestellten Informationen - dazu gehören unter anderem:
- erstellte und geteilte Inhalte
- versendete und empfangene Nachrichten
- geteilte Standorte
- Nutzungsweise der Facebook-Dienste21 (Arten von Inhalten, die sich der Nutzer ansieht und mit denen er interagiert, sowie Häufigkeit und Dauer seiner Aktivitäten)
- Aktivitäten und Informationen anderer, die in Verbindung mit dem Nutzer stehen:
- geteilte Fotos
- versendete Nachrichten
- hochgeladene, synchronisierte oder importierte Kontaktinformationen
- Netzwerke und Verbindungen des Nutzers:
- Art der persönlichen Beziehung
- Kommunikation und Interaktion
- Kontaktinformationen
- Informationen zu Zahlungen:
- Zahlungsinformationen
- Kontoinformationen
- Geräteinformationen:
- Betriebssystem
- Gerätestandorte
- Browser
- Sprache
- IP-Adresse
- Mobilfunk- oder Internetanbieter
- Informationen von Webseiten und Apps, die Facebook-Dienste nutzen:
- besuchte Webseiten
- genutzte Apps
- Informationen von Drittpartnern
- Aktivitäten auf und außerhalb von Facebook
- Unternehmen, die sich im Besitz von Facebook befinden oder von diesem betrieben werden:
- Informationen unterschiedlicher Art22
Zum Erfassen, Speichern und Verarbeiten der Daten, die die Nutzer durch ihre Aktivitäten im Internet generieren, werden bestimmte Tracking-Methoden verwendet. Die seitenübergreifenden Bewegungsprofile der Nutzer werden mithilfe von Cookies erstellt. Dabei handelt es sich vor allem um „kleine Textdateien, die lokal im temporären Speicher des Internet-Browsers eines Seitenbesuchers gespeichert werden“. 23 Sogenannte „Tracking-Cookies“ werden auf dem Computer, Smartphone oder ein anderes verwendetes Gerät der Nutzer gespeichert, wodurch sie auch nach Schließen des Browsers bestehen bleiben. Tracking-Cookies speichern Daten über besuchte Webseiten, über das Klickverhalten, persönliche Seiteneinstellungen sowie Anmeldeinformationen. Was bleibt ist die Nachvollziehbarkeit des individuellen Internetverhaltens eines jeden Nutzers. Facebook setzt Datr-Cookies ein, wodurch auch das Surfverhalten von Nicht-Mitgliedern getrackt werden kann. Dieser Datr-Cookie wird nämlich auch dann auf dem Computer des Nutzers gesetzt, wenn er Webseiten mit eingebetteten Facebook-Plugins besucht - die Betätigung dieser ist dazu nicht notwendig. Die Bedeutung dieser speziellen Cookies für die Menge an persönlichen Informationen, die der Konzern speichert, kann kaum unterschätzt werden, wenn man bedenkt, dass die Mehrheit aller Webseiten die Plugins von Facebook einbindet.24
In Untersuchungen rund um den Filtermechanismus bei Facebook wird überwiegend deutlich, dass die wichtigsten Faktoren, auf deren Grundlage die Algorithmen die Relevanz berechnen, die Beziehungsnähe zwischen Sender und Empfänger sowie die Beliebtheit (in Form von Likes, Comments und Shares) und die Aktualität des Postings darstellen.25
2.2 Funktionsweise der Algorithmen
Wie vorangehend erläutert, sammeln die Webdienste Google und Facebook personenbezogene Daten zum Such- und Surfverhalten. Diese Daten dienen nun den Algorithmen als Grundlage, dem Internetnutzer nur relevante Informationen anzuzeigen. Die Algorithmen der Informationsintermediäre arbeiten generell nach drei miteinander verbundenen Logiken: die Filter, Sortier- und Personalisierungslogik.26 Wie in Abbildung 1 dargestellt, wird mithilfe algorithmischer Entscheidungssysteme zuerst eine Teilmenge von Informationen aus einer großen Datenbank entnommen (Selektion beziehungsweise Filterung). Die entnommenen Informationen werden dann bezüglich ihrer allgemeinen oder (für die vorliegende Untersuchung zutreffender) individuellen Relevanz eingeschätzt und sortiert. Schlussendlich werden dem Internetnutzer die selektierten und - nach ihrer Relevanz - sortierten Informationen präsentiert.27
Abbildung in dieser Leseprobe nicht enthalten
Abbildung 1: Funktionsweise der Algorithmen28
3 Traditionelle Medien versus Online-Informationsintermediäre
Dass die Bedeutung von Informationsintermediären sowie ihre Relevanz für (politische) Meinungsbildungsprozesse stetig steigt, belegen eine Vielzahl von Studien zur Nutzung dieser.28 29 Google und Facebook stellen dabei die bedeutendsten Informationsintermediäre dar, wenn es darum geht, sich im Internet zu informieren. Auch ein Zusammenhang zwischen Alter sowie formaler Bildung und der Nutzung ist erkennbar: Überdurchschnittlich häufig werden Informationsintermediäre von jüngeren und formal höher gebildeten Personen zur Informationssuche genutzt.30
[...]
1 Pariser 2011.
2 Vgl. Verständig/Biermann 2017, S. 6.
3 Vgl. Iske/Verständig 2014, S. 3.
4 Alle Formulierungen sind als geschlechtsneutral zu betrachten.
5 Vgl. Stark et al. 2017, S. 20.
6 Ebd.
7 Nicht alle Daten, die Google speichert werden offen kommuniziert. Auf ihrer Website listen sie lediglich drei Arten von Daten auf, die hauptsächlich erfasst werden: Google LLC: Wir erklären, welche Daten wir erfassen und verwenden.
8 Vgl. Pariser 2011.
9 Vgl. Humborg/Nguyen 2018, S. 8.
10 Vgl. Jürgens et al. 2014, S. 104.
11 Pariser 2011.
12 Sunstein 2001.
13 Zweig et al. 2017, S. 324.
14 Stark et al. 2017, S. 32.
15 Gesamter Abschnitt: vgl. Jürgens et al. 2014, S. 98, 106.
16 Beispielsweise die Studie von Stark et al. 2017 zum Einfluss von Facebook auf die Meinungsbildung. Die Süddeutsche Zeitung führte im Zuge der Bundestagswahlen 2017 eine Datenrecherche („Der Facebook-Fak- tor“) zur politischen Landschaft auf Facebook durch. Das Ergebnis lautete, dass es isolierte Filterblasen - hinsichtlich der politischen Orientierung - zumindest im deutschen Facebook nicht gibt.
17 Zum Beispiel: Hagen et al. 2017.
18 Vgl. Schweiger 2017, S. 93.
19 Stark et al. 2014; Stark et al. 2017; Schweiger 2017; Humborg/Nguyen 2018.
20 Kompetenzzentrum Informelle Bildung 2007; Biermann/Verständig 2017.
21 Zu den Facebook-Diensten gehören unter anderem: Instagram, Spotify und Yahoo.
22 Facebook Inc. (2016): Datenrichtlinie. Welche Arten an Informationen sammeln wir?.
23 Datenschutzbeauftragter INFO: Cookies und Datenschutz.
24 Ganzer Abschnitt: vgl. Mertin 2016. An dieser Stelle auch ein Verweis auf Facebooks Richtlinien hinsichtlich der Verwendung von Cookies: Facebook Inc. 2017.
25 Vgl. Stark et al. 2017, S. 29.
26 Vgl. Stark et al. 2017, S. 21.
27 Vgl. Zweig et al. 2017, S. 320.
28 Abbildung nach: Zweig et al. 2017, S. 320.
29 Zum Beispiel: vgl. Stark et al. 2017.
30 Vgl. TNS Infratest 2016 nach Stark et al. 2017 S. 23.