In algorithm we trust – (Des-)Informationsangebote per Empfehlung?
Studie „Empfehlungen in Krisenzeiten – Welche Inhalte machen die Empfehlungsalgorithmen von YouTube sichtbar?“
Wie funktionieren Empfehlungen bei YouTube in Krisenzeiten? Werden bei Themen wie „Covid-19-Pandemie“, „Klimawandel“ oder „Flüchtlinge“ desinformierende Videos empfohlen oder ermöglichen die Empfehlungen vertiefend informierte Meinungsbildung? Diese Fragen untersucht die aktuelle Studie „Empfehlungen in Krisenzeiten – Welche Inhalte machen die Empfehlungsalgorithmen von YouTube sichtbar?“ der Medienanstalt Berlin-Brandenburg (mabb), der Senatskanzlei Berlin, der Bayerischen Landeszentrale für neue Medien (BLM), der Landesanstalt für Medien NRW und der Medienanstalt Rheinland-Pfalz. Anhand von systematischen Videoaufrufen wurde im Rahmen der Studie erforscht, inwieweit die nicht personalisierten Empfehlungen von YouTube dazu beitragen, dass Nutzerinnen und Nutzer auf Quellen und Informationen hingewiesen werden, die journalistische Sorgfaltspflichten einhalten und von wissenschaftlichem Konsens unterstützt werden.
Zentrale Ergebnisse der Studie
- YouTubes-Empfehlungsalgorithmus präsentiert kaum desinformierende Inhalte.
Bei den kontrovers diskutierten Themen „Covid-19“, „Klimawandel“ und „Flüchtlinge“ als Startpunkt der Untersuchung wurden nur sechs Prozent der Videos, die der Algorithmus anschließend empfohlen hat, als potenziell desinformierend eingestuft. - Themenvertiefung wird selten empfohlen.
Gleichzeitig enthielten nur insgesamt elf Prozent der erfassten Empfehlungen Videos zu den als Startpunkt gewählten Themen „Covid-19“, „Klimawandel“ und „Flüchtlinge“. - YouTube-Algorithmus setzt auf eine begrenzte Palette populärer Kanäle.
69 Prozent aller erfassten Empfehlungen bewerben Videos von nur 61 Kanälen. Diese umfassen viele öffentlich-rechtliche und etablierte private Medienanbieter. Auf Nischenprogramme und Inhalte weniger bekannter Anbieter wird sehr selten hingewiesen.
Die Studienergebnisse deuten somit darauf hin, dass YouTubes Empfehlungen weniger der inhaltlich vertiefenden, als vielmehr einer thematisch breiten Information der Nutzerinnen und Nutzer anhand etablierter Medienangebote und -anbieter dienen. Desinformatives bleibt oft außen vor.
Über die Studie
YouTube ist mit 7,2 Millionen sich hier täglich informierenden Nutzerinnen und Nutzern mittlerweile eine wichtige Informationsquelle für die Bevölkerung in Deutschland (vgl. Vielfaltsbericht der Medienanstalten 2020). Ein zentraler Service der Video-Sharing-Plattform sind die Empfehlungen des Algorithmus. Vor dem Hintergrund der Corona-Pandemie, gesellschaftspolitischer Debatten über Klimawandel und Migration sowie von Wahlen auf Bund- und Länderebene ist es aktuell besonders relevant, wie YouTube mit desinformierenden Inhalten umgeht. Um einen besseren Überblick zu gewinnen, wie der Empfehlungsalgorithmus von YouTube in Krisenzeiten funktioniert, haben die Landesmedienanstalten aus Bayern, Berlin-Brandenburg, Nordrhein-Westfalen und Rheinland-Pfalz gemeinsam mit der Senatskanzlei Berlin die Studie „Empfehlungen in Krisenzeiten – Welche Inhalte machen die Empfehlungsalgorithmen von YouTube sichtbar?“ in Auftrag gegeben. Die Studie wurde von Kantar, Public Division und der Rheinisch-Westfälischen Technischen Hochschule Aachen (RWTH) durchgeführt.
Im Rahmen der Studie wurden insgesamt 90 Startvideos und Suchbegriffe zu den Themen „Covid-19-Pandemie“, „Klimawandel“ und „Flüchtlingsbewegungen“ festgelegt. Um die Sichtbarkeit desinformativer Videos bestimmen zu können, waren ein Drittel der Startpunkte Videos mit desinformierenden Inhalten. Die darauffolgenden Empfehlungen wurden im August 2020 automatisch aufgezeichnet, wobei sichergestellt war, dass die bisherige Nutzung keinen Einfluss auf die Ergebnisse hatte (Laborbedingungen). Über 33.000 mögliche Empfehlungen wurden auf diese Weise gesammelt, von denen über 8.000 unterschiedliche, mehrfach empfohlene deutschsprachige Videos sind.
Die Seiten-Url wurde in der Zwischenablage gespeichert.