Ist Youtube eine «Radikalisierungsmaschine»?

Publiziert

Es kommt drauf anIst Youtube wirklich eine «Radikalisierungsmaschine»?

Youtube empfiehlt per Algorithmus weitere Clips. Das ist bekannt. Unbekannt war bislang aber, ob und wie sehr dieser Leute dazu verleitet, extremistische Videos zu schauen. Das ist jetzt anders.

1 / 13
Weltweit nutzen monatlich rund 2,56 Milliarden Menschen Youtube.

Weltweit nutzen monatlich rund 2,56 Milliarden Menschen Youtube.

Unsplash
Jedem einzelnen User und jeder einzelnen Userin empfiehlt die Videoplattform nach einem Video weitere Inhalte. Der Algorithmus machts möglich.

Jedem einzelnen User und jeder einzelnen Userin empfiehlt die Videoplattform nach einem Video weitere Inhalte. Der Algorithmus machts möglich.

Unsplash
Genau das ist vielen Menschen ein Dorn im Auge: Sie befürchten, dass Nutzerinnen und Nutzer so zu sexistischen, rassistischen oder extremistischen Inhalten gelangen.

Genau das ist vielen Menschen ein Dorn im Auge: Sie befürchten, dass Nutzerinnen und Nutzer so zu sexistischen, rassistischen oder extremistischen Inhalten gelangen.

Unsplash

Darum gehts

  • Youtube empfiehlt nach jedem Video weitere Inhalte. 

  • Viele Menschen gehen davon aus, dass Userinnen und User so irgendwann zu problematischen Inhalten gelangen. 

  • Laut US-Forschenden ist das aber nicht der Fall – sofern die Nutzerinnen und Nutzer solch problematischen Inhalten nicht eh schon zugetan sind.

  • Sie formulieren aber auch deutliche Kritikpunkte.

Auf harmlose Büsi-Clips auf Youtube folgen Verschwörungsclips? Das stimmt laut einer Studie aus den USA nicht. Sie widerspricht dem Verdacht, dass die Videoplattform häufig sexistische, rassistische oder extremistische Inhalte vorschlägt. Die Forschungsgruppe um Annie Chen von der City University of New York hatte für die im Fachjournal «Science Advances» veröffentlichte Arbeit Umfrage- und Browserdaten von 1181 Amerikanerinnen und Amerikanern aus dem Jahr 2020 ausgewertet und festgestellt, dass nur eine kleine, aber sehr aktive Gruppe von Nutzerinnen und Nutzern solche Inhalte konsumiert.

Was genau zeigt die Studie?

Sie zeigt, dass nur drei Prozent der Userinnen und User, die keinen Kanal mit extremistischen oder ähnlichen Inhalten abonniert hatten, solche Videos anschauten, weil Youtube sie ihnen empfohlen hatte. Wer aber schon vorher alternativen und extremistischen Kanälen folgte oder Videos mit solchen Inhalten sah, bekam mit hoher Wahrscheinlichkeit auch entsprechende Vorschläge für weitere derartige Videos. Als alternativ bezeichnet die Studie solche Videos, die die Absicht haben, diskreditierende Ansichten zu legitimieren. Wenn diejenigen Teilnehmenden ein alternatives Video sahen, war das nächste vorgeschlagene und angesehene Video in 54 Prozent der Fälle ein anderes alternatives oder ein extremistisches Video. Bei extremistischen Videos folgten sogar in fast 74 Prozent der Fälle solche Inhalte.

Allerdings machten diese Teilnehmenden nur einen geringen Anteil aus: Insgesamt sahen nur 15,4 Prozent der Teilnehmenden im Untersuchungszeitraum überhaupt alternative Videos und nur 6,1 Prozent extremistische Videos, die vor allem Vertreter der rassistischen «White Supremacy» (siehe Box) eingestellt hatten. Dazu zählen auch die Aufrufe, die nicht von Youtube vorgeschlagen wurden.

White Supremacy?

«White Supremacy» bedeutet so viel wie «weisse Vorherrschaft» und bezieht sich auf die angebliche Überlegenheit weisser Menschen. Ursprünglich in den USA gebräuchlich, hat der Begriff seine Wurzeln in der Zeit der Sklaverei, als weisse Siedler ihren Reichtum durch die Ausbeutung schwarzer Menschen erlangten. Heute wird «White Supremacy» allgemein als Sammelbegriff für rassistische Ideologien und gesellschaftliche Strukturen verwendet.

Was schliessen die Forschenden aus dem Ergebnis?

«Der Empfehlungsalgorithmus von Youtube spielt nur eine untergeordnete Rolle bei der Erleichterung des Kontakts mit potenziell schädlichen Inhalten», so die Forschenden. Laut ihnen deuten die Ergebnisse darauf hin, dass die Algorithmen von Youtube die Menschen – zumindest während des Beobachtungszeitraums – nicht radikalisiert. Weiter habe es nicht dazu verleitet, sich durch ständiges Weiterklicken auf extremistische oder ähnlich geartete Seiten zu verirren und so in ein sogenanntes «rabbit hole» (Kaninchenbau, siehe Box) zu locken. Diejenigen, die entsprechende Inhalte angezeigt bekamen, hatten sich vorher bereits als offen für diese erklärt.

Das ist das Kaninchenbau-Syndrom

Ist also alles gut?

Ist also alles gut? Nein, denn Youtube gibt extremistischen und menschenfeindlichen Themen weiterhin eine Bühne. Das «fördert das Wachstum problematischer Gemeinschaften», schreiben die Forschenden. Sie weisen darauf hin, dass viele Kanalaufrufe aus Empfehlungen von alternativen Plattformen entstehen, auf denen sich Nutzer mit einem hohen Mass an sexistischen und rassistischen Ressentiments versammeln können. «Das ermöglicht es den Urheberinnen und Urhebern alternativer und extremer Inhalte, von geteilten Youtube-Werbeeinnahmen oder indirekt über angeschlossene Shops und Spendenkampagnen zu profitieren.»

Weiter weist das Team um Chen darauf hin, dass «selbst sehr niedrige Raten von ‹Rabbit Hole›-Empfehlungen ausreichen, um eine grosse Anzahl gefährdeter Personen einem Schaden auszusetzen, insbesondere wenn man sie auf die gesamte Youtube-Zuschauerschaft und über Jahre hinweg hochrechnet». Die Plattform wird weltweit von rund 2,56 Milliarden Menschen genutzt. Zudem ist nach wie vor offiziell unklar, wie der Youtube-Algorithmus tatsächlich funktioniert. Es ist nur bekannt, dass er im Jahr 2019 geändert wurde. Laut den Betreibern hat das dazu geführt, dass etwa 50 Prozent weniger Zeit mit extremistischen und menschenfeindlichen Videos verbracht wurde. Überprüfen lässt sich das jedoch nicht.

Ein anderes Problem nennt Josephine Schmitt vom Center for Advanced Internet Studies in Bochum gegenüber dem Redaktionsnetzwerk Deutschland: «Selbst wenn nur ein kleiner, aber überzeugter Kreis an Personen durch die Algorithmen an noch mehr problematische Inhalte herangeführt wird, ist auch das eine grosse Herausforderung für die Demokratie.»

Es gibt noch ein Aber

Die Studie hat Einschränkungen, wie die Forschenden selbst festhalten: Unter anderem, weil die Probanden und Probandinnen der Nutzung ihrer Daten zustimmen mussten. Das könnte die Stichprobe des Teilnehmerfelds verzerrt haben. Zudem leben alle Teilnehmenden in den USA. Ob die Resultate auch für Europa oder Deutschland gelten können, ist daher unklar. Ein weiterer Punkt ist, dass die Erkenntnisse sich ausschliesslich auf den Untersuchungszeitraum beziehen. 

Bist du viel auf Youtube?

Bist du oder ist jemand, den du kennst, von Rassismus betroffen?

Hier findest du Hilfe:

Beratungsnetz für Rassismusopfer

GRA, Stiftung gegen Rassismus und Antisemitismus

Pro Juventute, Beratung für Kinder und Jugendliche, Tel. 147

Dargebotene Hand, Sorgen-Hotline, Tel. 143

Wissen-Push

Abonniere in der 20-Minuten-App die Benachrichtigungen des Wissen-Kanals. Du wirst über bahnbrechende Erkenntnisse und Entdeckungen aus der Forschung, Erklärungen zu aktuellen Ereignissen und kuriose Nachrichten aus der weiten Welt der Wissenschaft informiert. Auch erhältst du Antworten auf Alltagsfragen und Tipps für ein besseres Leben.

So gehts: Installiere die neueste Version der 20-Minuten-App. Tippe oben rechts aufs Einstellungs-Menü (drei Striche mit Kreis), dann «Einstellungen» und schliesslich auf «Push-Mitteilungen». Wähle die gewünschten Themen aus und klicke dann «Weiter». Wähle nun, falls gewünscht, eine Region aus und klicke «Weiter». Beim Punkt «Themen» kannst du jetzt «Wissen» auswählen. «Bestätigen» klicken und du bist dabei!

Keine News mehr verpassen

Mit dem täglichen Update bleibst du über deine Lieblingsthemen informiert und verpasst keine News über das aktuelle Weltgeschehen mehr.
Erhalte das Wichtigste kurz und knapp täglich direkt in dein Postfach.

Deine Meinung