Wie Algorithmen unsere Weltsicht prägen

In einem Experiment wollten sich Farina Grotzfeld und Peter Schildhauer angucken, was für Inhalte auf Instagram News Feeds auftauchen, wenn die Instagramkonten im Vorfeld entsprechend eingerichtet worden sind. Mit zwei Fake Accounts haben sie im Rahmen der US-Präsidentschaftswahl 2020 untersucht, wie die Filterblasen dieser beiden Accounts aussehen: Welche (parteientypischen) Themen werden behandelt und welche Vorschläge werden vom Insta-Algorithmus gemacht? Aber – ganz wichtig – auf unsere eigene Weltsicht haben solche Filterblasen doch gar keine Wirkung. Oder?

                                                  

Teil 1

                                                  

Skript:

Am 6. Januar komme ich von der Arbeit nach Hause, lege mich auf’s Sofa, mache Instagram auf und –  verschlucke mich fast an meinem Tee. Auf meinem News Feed sind lauter Bilder von Menschen, die das Kapitol stürmen, das Kongressgebäude der Vereinigten Staaten von Amerika. Manche sind verkleidet, einige tragen amerikanische Flaggen, dafür tragen kaum welche einen Mund-Nasen-Schutz. Diese Menschen sind nach allem was wir wissen, Anhänger*innen von Donald Trump, die nicht möchten, dass Joe Bidens Wahlsieg offiziell bestätigt wird.

Mein Instagram ist an diesem Abend voll mit Posts von meinen schockierten, größtenteils links-grünen Bekannten und dann frage ich mich: Sieht das bei Leuten mit einer anderen politischen Orientierung eigentlich genau so aus? Das gucke ich doch mal nach.

 

Wir interessieren uns schon länger dafür, wie die Social Media Feeds von Nutzer*innen mit einer bestimmten politischen Einstellung aussehen. Deshalb haben wir im letzten Oktober, also nur wenige Wochen vor der Präsidentschaftswahl in den USA, ein Experiment auf Instagram gestartet. Da haben wir jetzt zwei Fake Accounts: Einen für einen stereotypen, beinharten Republikaner, den anderen für das Gegenstück auf der Seite der Demokrat*innen. Natürlich hat Instagram uns sofort angeboten, für diese Fake Accounts unsere bereits existierenden, privaten Konten anzuzapfen, damit wir nicht ohne Freund*innen dastehen. Das haben wir aber ignoriert und haben Instagram stattdessen genau eine Information für unseren Start geliefert: Wir sind gezielt den Accounts der jeweiligen Präsidentschaftskandidaten gefolgt. Joe Biden für den Demokraten-Account, Donald Trump für das Republikanerkonto.

 

Danach haben unsere Vorschläge deutlich anders ausgesehen als vorher. Da hatten wir dann unter anderem Politiker*innen wie zum Beispiel den damalige Vize-Präsidenten Mike Pence und den gesamte Trump-Clan auf der einen, oder Kamala Harris und Ex-Präsidenten Barack Obama auf der anderen Seite. Unser Republikaner hat aber auch einige Empfehlungen aus dem Sport- oder Waffenbereich bekommen, während unserem Demokraten nahegelegt wurde, eher Personen und Institutionen aus dem Feld von Medien und Kultur zu folgen.

 

Jetzt folgen wir also Menschen und Organisationen aus dem Umfeld des jeweiligen Präsidentschaftskandidaten. Und das merkt man sofort. Die Meldungen auf dem Konto unseres Demokraten unterscheiden sich thematisch nicht besonders stark von unseren privaten News Feeds. Aber einige der Ansichten, die auf dem Republikaner-Account vertreten werden, lassen uns dann doch manchmal etwas sprachlos zurück. Doch warum werden wir dort so sehr mit konservativen Meinungen zugeschüttet, die auf unseren persönlichen News Feeds quasi nicht stattfinden?

                                                  

Teil 2

                                                  

Skript:

Politik auf Social Media ist ein zwiegespaltenes Thema. Das Gute: User*innen können sich einfach, schnell und meist gratis informieren und sogar selber mitdiskutieren, um ihre eigene politische Meinung zu vertreten. Was will man mehr in einer Demokratie? 

 

[O-Ton Kommentar 1: Most of the liberal protesters have free room and board in their parent’s basements. They have welfare from the state and federal governments. They use and sell drugs. They never have a job. This is why the worthless slobs vote Democrat.]

 

[O-Ton Kommentar 2: Why aren’t these people shot with rubber bullets and being thrown in vans and hauled off to jail?]

 

[O-Ton Kommentar 3: I WON THIS ELECTION, BY A LOT!]

 

Das waren ein paar Beispiele, die ganz gut zeigen, was auf Social Media schief gehen kann. In Diskussionen fehlen oft sinnvolle Argumente, was ja aber gar nicht sooo schlimm ist, wenn man genug Beleidigungen parat hat. Die lassen sich ja auch bekanntlich viel besser verteilen, wenn man die andere Person nicht sehen muss. Ein weiteres Problem in den sozialen Medien ist übrigens die Verbreitung von alternativen Fakten. Da User*innen im legalen Rahmen posten können, wonach ihnen der Sinn steht, sind auch oft mal falsche Infos dabei.

 

Aber kommen wir auf nochmal auf unseren Instagram Feed zurück. Warum sehen manche Leute auf Instagram bestimmte Posts, die anderen Leuten nicht angezeigt werden? Die Antwort dafür sind die Algorithmen. Algorithmen werden von verschiedenen Apps und Websites dafür benutzt, Daten von User*innen zu sammeln und auszuwerten. Nach dieser Auswertung kann der Algorithmus dann ungefähr vorhersagen, was Nutzer*innen sich online gerne ansehen und dann entsprechend ähnliche Vorschläge machen.

 

Wir haben mit der Social Media Beraterin Tessa Kölling gesprochen und sie gefragt, worauf ein Algorithmus eigentlich so achtet.

 

[O-Ton Tessa Kölling: Als damals Instagram noch ganz frisch aus dem Ei geschlüpft war, bekam man die Beiträge ganz einfach in umgekehrt chronologischer Reihenfolge angezeigt. Inzwischen sortiert uns der berühmt-berüchtigte Algorithmus welche Beiträge wir zu sehen bekommen. Der Algorithmus bevorzugt Beiträge, die zum Verweilen einladen, die lange betrachtet werden, die viele Likes bekommen und kommentiert werden, und das idealerweise innerhalb der ersten Stunde nach Erscheinen. Und wenn der Algorithmus dann Ähnlichkeiten zu Posts, mit denen wir interagieren, feststellt – voilá! Noch mehr süße Katzenvideos]

 

Ein Algorithmus sorgt also dafür, dass wir Dinge, die wir uns gerne angucken, immer wieder sehen. Das gehört quasi zum Geschäftsmodell von Social Media Plattformen. Wir sollen uns dort möglichst zu Hause fühlen, möglichst lange bleiben und dabei auch möglichst oft Werbung sehen. 

 

Instagram hat dafür zwei Angriffspunkte. Zuerst einmal gibt es die Funktion Entdecken. Die zeigt uns Posts, die den Beiträgen ähnlich sind, die uns gefallen. Zweitens schlägt uns Instagram gerne Accounts vor, die mit Konten verknüpft sind, denen wir schon folgen.

 

Das ist für unseren News Feed entscheidend. Dort erscheint nämlich laut Instagram alles, was diese Accounts so posten, denen wir folgen. Wenn wir also den Algorithmus-Empfehlungen nachkommen, bauen wir unsere eigene Filterblase, quasi unsere Feel Good Zone. Und die entspricht eben oft unserer eigenen politischen Orientierung. 

 

Tatsächlich sind Social Media-Algorithmen ja auch eine wichtige Sache – sie helfen uns nämlich, die Informationsflut im digitalen Zeitalter zu bewältigen. Nicht umsonst zählt der Kultur- und Medienwissenschaftler Felix Stalder Algorithmen zu den Kernmerkmalen einer Kultur der Digitalität. Es ist also überhaupt nicht überraschend, dass die meisten Leute sich in ihren Filterblasen ziemlich wohl fühlen und eigentlich keinen Grund sehen sie zu verlassen. Schließlich wartet draußen eine sehr unangenehme Welt, voll von Informationen, befremdlichen Meinungen und anderen Wahrheiten.

 

Manche Organisationen versuchen aber gezielt in andere Filterblasen einzudringen. So hat zum Beispiel unser Republikaner Nachrichten von unbekannten Personen bekommen, die uns einen Account namens The Doe ans Herz gelegt haben. Da erwartet man dann natürlich schön viele konservative Inhalte. Interessanterweise beschäftigen sich viele Posts von The Doe mit Meinungen und Ideen, die bei republikanischen Wähler*innen eigentlich so gar nicht beliebt sind. Dazu gehören Themen wie die Auswirkungen des Klimawandels oder betroffene Stimmen zu der Black Lives Matter-Bewegung. Wir wollten gerne wissen, wie es sein kann, dass wir – mit unserem offensichtlich republikanischen Instagram Account – angeschrieben worden sind.

 

[O-Ton The Doe: Part of our mission is to break down echo chambers and reach audiences of all perspectives. Traditional marketing tools on Instagram limit our reach to potential followers. This DM campaign helps us get around that]

 

Es gibt also durchaus Möglichkeiten Filterblasen zu durchbrechen und letztendlich gestalten wir alle unsere eigene Blase selbst – also nicht der Algorithmus, der hilft nur dabei. Wer sich politisch informieren will und dafür die sozialen Medien nutzt, bekommt also auf jeden Fall eine Bandbreite von Infos und Meinungen zu sehen – wenn er oder sie sich aktiv dafür entscheidet. Um diese Infos aber zu bekommen, muss man sich erst einmal darüber bewusst sein, dass wir ALLE in unseren selbst geschaffenen Filterblasen herum wabern. Was Algorithmen uns vorsetzen, prägt also ganz entscheidend unser aller Weltsicht. Sie verändern nicht nur die Weltsicht der Trump-Unterstützer*innen, die Anfang Januar das Kapitol gestürmt haben.

 

Hin und wieder ist es deshalb eine gute Sache, auch mal Accounts zu folgen, die man eigentlich nicht so richtig toll findet – einfach, damit das Bild am Ende etwas weniger schief ist. Und keine Sorge: Wer irgendwann zu viel von Beiträgen hat, die sich mit Covid oder Politik beschäftigen, findet bestimmt noch irgendwo auf seinem Feed ein süßes Hunde- oder Katzenvideo.


Literatur zum Thema:

 

AlgorithmWatch (2020): Undress or fail. Instagram’s algorithm strong-arms users into showing skin. Online verfügbar unter https://algorithmwatch.org/en/story/instagram-
algorithm-nudity/, zuletzt aktualisiert am 15.06.2020, zuletzt geprüft am 30.12.2020.

 

Ananny, Mike; Crawford, Kate (2018): Seeing without knowing: Limitations of the transparency ideal and its application to algorithmic accountability. In: New Media & Society
20 (3), S. 973–989. DOI: 10.1177/1461444816676645.

 

Carrington, Victoria (2018): The Changing Landscape of Literacies. Big Data and Algorithms. In: Digital Culture & Education 10 (1), S. 67–76.

 

Hallet, Wolfgang (2019): Diskursfähigkeit im Zeitalter der Digitalisierung neu denken. DGFF Talk, 26.09.2019, Würzburg.

 

Leander, Kevin M.; Burriss, Sarah K. (2020): Critical literacy for a posthuman world: When people read, and become, with machines. In: Br J Educ Technol 51 (4), S. 1262 1276.
DOI: 10.1111/bjet.12924.

 

Mahapatra, Amogh (2020): Designing a Constrained Exploration System. Instagram. Online verfügbar unter https://about.instagram.com/blog/engineering/designing a
constrained exploration system, zuletzt aktualisiert am 10.12.2020.

 

Mahapatra, Amogh (2020): On the Value of Diversified Recommendations. Online verfügbar unter https://about.instagram.com/blog/engineering/on the value of diversified
recommendations, zuletzt aktualisiert am 17.12.2020, zuletzt geprüft am 30.12.2020.

 

Pariser, Eli. (2011): The filter bubble. London: Viking.

 

Jones, Rodney H. (2019): The text is reading you. Teaching language in the age of the algorithm. In: Linguistics and Education. Online verfügbar unter
https://doi.org/10.1016/j.linged.2019.100750.

 

Stalder, F. (2017): Kultur der Digitalität. Berlin: Suhrkamp.


Die Musik wurde zur Verfügung gestellt von FreePD.com.

Anzugebende Rechte:

Keyboard: © GeorgeHopkins auf Freesound.org, CC BY 3.0