Haartrockner gegen Corona?
Soziale Medien und die Infodemie
Haben Sie es schon gehört? Das Coronavirus gibt es gar nicht. Es ist ein Biokampfstoff, der in Laboren gezüchtet wurde. Das Virus verbreitet sich über 5G. Man kann es mit Chlordioxid loswerden. Ein Haartrockner reicht auch. Dank Corona kehrt die Natur zurück und in Venedig gibt es wieder Delfine. Dies sind nur einige wenige Beispiele der zahlreichen Lügen, Verschwörungslegenden, Halbwahrheiten und Absurditäten, die in den letzten Wochen im Kontext der Coronaviruskrise in sozialen Medien verbreitet wurden. Eine wilde Melange aus Virusleugnung, vermeintlichen Wundermittelchen, rassistischen und xenophoben Inhalten, die nun mit einem Corona-Spin versehen wurden und den üblichen Weltherrschaftsverschwörungsmythen. Bereits Anfang Februar 2020 warnte die WHO vor der „Infodemie“, die mit dem pandemischen Geschehen einhergehe und es schwierig mache, mit korrekten und wichtigen Informationen durchzudringen.
Die YouTube-Videos auf dieser Seite sind im erweiterten Datenschutzmodus eingebettet, d.h., Daten werden erst dann an Dritte übertragen, wenn die Videos abgespielt werden (siehe auch Datenschutzerklärung).
Gerade in einer Krise sind Orientierung und rationale öffentliche Diskurse elementar. Tatsächlich waren Wissenschaftlerinnen und Wissenschaftler lange nicht so präsent in den Medien wie in den letzten Wochen während der Coronaviruskrise. Das Vertrauen in Wissenschaft stieg weiter an, ebenso die Nutzung etablierter Medien, auch das oft totgesagte lineare Fernsehen konnte Zuwächse verzeichnen. Scheinbar eine paradoxe Situation: einerseits ein reichhaltiges journalistisches Angebot an Coronaberichterstattung und Virologen-Podcasts, andererseits eine Flut an Desinformation auf WhatsApp, YouTube und Twitter. Sind also die sozialen Medien schuld an der Infodemie?
Soziale Medien als Nachrichtenquellen
In allen Altersgruppen unter 45 Jahren hat das Internet das Fernsehen als Hauptnachrichtenquelle abgelöst. Für 11 % der deutschen Internetnutzer sind soziale Medien eine Hauptnachrichtenquelle, bei den 18- bis 24-Jährigen für 30 %. Eine Zeitung lesen in dieser Altersgruppe nur noch 5 %, 2019 waren es noch doppelt so viele. Sogar WhatsApp nutzen 16 % der Deutschen als Nachrichtenquelle. Dies zeigt sich auch in der Pandemie. Obwohl das Fernsehen mehr als sonst eingeschaltet wurde, informierte sich etwa die Hälfte der deutschen Internetnutzerinnen und ‑nutzer auch in den sozialen Medien über Corona und Covid‑19, bei den jüngeren Altersgruppen sogar 72 % (alle Daten: Hölig/Hasebrink 2020). Was über soziale Medien kursiert, ist also keineswegs marginal oder irrelevant für den öffentlichen Diskurs.
Es wäre ein Missverständnis, online und offline, traditionelle Medien und soziale Netzwerke als getrennte Kommunikationsumwelten zu betrachten. Wir leben in hybriden Mediensystemen, in denen sich beide Bereiche überschneiden und miteinander verwoben sind. Informationsflüsse und Diskursdynamiken finden über verschiedene Plattformen hinweg statt. So zeigte eine Studie der Fact-Checking-Organisation „Correctiv“, dass die Leute Desinformation über Corona zwar meistens über WhatsApp begegnen, die Quelle in den meisten Fällen aber YouTube ist – weil in WhatsApp-Gruppen eben viele Links zu Videos geteilt werden (Echtermann 2020). Schaut man sich die Links an, die am meisten über Twitter in Tweets zu Corona und Covid‑19 geteilt wurden, sieht man zum Großteil Links zu traditionellen Massenmedien, z.B. verlinkte Artikel der Tageszeitungen oder des öffentlichen Rundfunks. Informationen, ob korrekt oder falsch, reisen über mehrere Plattformen und soziale Netzwerke hinweg, genauso wie Nutzer nicht entweder Twitter oder Instagram oder YouTube nutzen, sondern verschiedene Plattformen vernetzt. Auch der Zugriff auf klassische Medieninhalte erfolgt nicht nur über einen direkten Zugriff (z.B. über Zeit online), sondern über Links, die in sozialen Medien geteilt werden.
Soziale Medien sind algorithmisch kuratierte Informationsumwelten.
Die Inhalte, die wir dort sehen, wurden von Algorithmen für uns datenbasiert ausgewählt. Alles, was wir anklicken, liken oder kommentieren, beeinflusst daher, welche Inhalte wir später angezeigt bekommen oder – vielleicht noch wichtiger – welche wir eben nicht sehen können. Das bedeutet, dass diese Art des Informationszugangs zum einen hochgradig personalisiert ist. Jeder sieht andere Inhalte, was die Wahrnehmung einer gemeinsam erlebten Realität schwieriger macht. Zum anderen werden über soziale Medien vor allem kostenlose Inhalte geteilt. Hochqualitativer Journalismus, investigative Recherchen, aufwendige Reportagen, die nur für Abonnentinnen und Abonnenten oder hinter einer Paywall publiziert sind, werden sich kaum bei Twitter oder Facebook verbreiten. Populär ist, was zugänglich ist und viele Interaktionen auslöst.
Nicht für Diskurse gemacht: Wie das Design Kommunikation beeinflusst
Die technologischen und sozialen Affordanzen, also die Gebrauchseigenschaften dieser Plattformen, die Art und Weise, wie sie eingerichtet sind, welche Interaktionsmöglichkeiten sie uns anbieten und ihr Design, haben einen direkten Einfluss auf die Kommunikation und die Diskurse, die dort stattfinden. Nachdem frühe Studien vor allem das emanzipatorische und demokratisierende Potenzial betont haben (Facebook-Revolutionen!), zeichnet sich nach über zehn Jahren empirischer Forschung ein eher nüchternes und düsteres Bild. Das Design und die Funktionsweise von sozialen Medien eignen sich in hervorragender Weise dazu, die Quellen von Informationen zu verschleiern und soziale Signale (Likes, Shares, Kommentare) zu manipulieren (Bimber/Gil de Zúñiga 2020). Hyperaktive Nutzer, automatisierte Accounts (sogenannte Social Bots) erwecken den Eindruck von sozialen Bewegungen und gesellschaftlicher Relevanz, wo eigentlich nur laute Minderheiten mobilisieren.
Ob in einer Krise oder unter normalen Bedingungen, soziale Medien sind kaum geeignet für rationale öffentliche Diskurse. Dies müsste nicht zwangsläufig so sein und ist auch nicht direkt der Technologie an sich anzulasten. Es liegt vielmehr daran, dass sie nicht primär für politische Information und Diskurse eingerichtet sind, sondern um möglichst viel Geld mit Werbung und der Erhebung vermarktbarer Daten zu verdienen (Zuboff 2019). Verlagert eine Gesellschaft nun aber öffentliche Kommunikation und Diskurse in eine solche Umgebung, bleiben Kollateraleffekte nicht aus.
Desinformation ist auch ein Geschäftsmodell
Studien zeigen, dass sich Desinformation über soziale Medien schneller, weiter und tiefer verbreitet als faktisch richtige Informationen, ganz besonders, wenn es um politische Informationen geht (Vosoughi/Roy/Aral 2018). Dies liegt nicht unbedingt an der Technologie, sondern auch an den Nutzerinnen und Nutzern selbst. Clickbait, reißerische Überschriften und Titel, führen zu vielen Interaktionen, die dann von den Algorithmen der Plattformen belohnt werden. Es wird sehr viel geklickt und geteilt, ohne vorher gelesen worden zu sein (Gabielkov u.a. 2016). Dadurch wird Desinformation zum Geschäftsmodell, weil sich mit Interaktionen viel Geld verdienen lässt, etwa mit Klicks auf Links, die zu Webseiten voller Werbung führen, oder mit häufig angeklickten YouTube-Videos. Diese Art von Geschäftsmodell mit Desinformation hat sich auch im US-Wahlkampf 2016 bemerkbar gemacht. Gerade in einer Krise, in der Nutzerinnen und Nutzer Orientierung und Informationen suchen, kann das schnell zu einem Problem werden.
Um Nutzerinnen und Nutzer möglichst lange auf den Plattformen zu halten, damit sie möglichst viel Aufmerksamkeit und Interaktionen dort lassen, tendieren soziale Medien zu Radikalisierung und Polarisierung (Tufekci 2018). Im Jahr 2016 bestand ein Drittel der großen politischen Facebook-Gruppen in Deutschland aus extremistischen, von Rassismus und Verschwörungslegenden geprägten Gruppen, deren Mitglieder größtenteils über Facebooks eigene Empfehlungssysteme rekrutiert wurden, d.h., Facebook schlug Nutzern aktiv vor, diese Gruppen könnten ihnen gefallen (Horwitz/Seetharaman 2020). Wenn es um politische Kommunikation von Parteien und Politikern geht, verbreiten sich emotionale, negative Botschaften und „attack messages“ besonders gut (Hemsley 2019), wovon vor allem populistische Akteure profitieren (Bobba 2019; Jost u.a. 2020).
Diese Kollateraleffekte finden nicht in einem luftleeren Raum statt, sondern vor dem Hintergrund eines massiven Bedeutungsverlusts etablierter Gatekeeper, eines kriselnden Journalismus, der sich kaum noch über Werbung finanzieren lässt, und einer immer schwächer werdenden Bindungskraft von Parteien und politischen Institutionen. Öffentlichkeit ist daher heute zunehmend uneditiert und dissonant: eine Vielzahl von Stimmen und Meinungen, die in einer Kakofonie gegeneinander kommunizieren und es nicht schaffen, Konflikte sinnvoll zu bearbeiten (Bennett/Pfetsch 2018). Das ist kein vorübergehendes Phänomen, sondern ein strukturelles Problem der politischen Kommunikation in digitalen Öffentlichkeiten.
Was kann man nun tun?
Wir haben den öffentlichen Diskurs und unsere Nachrichtenquellen in eine Umgebung ausgelagert, die dafür nicht geschaffen ist und eine ganze Reihe von negativen Effekten auf politisches Wissen und politisches Interesse mit sich bringt (Shehata/Strömbäck 2018). Wir alle haben in der Coronaviruskrise viel über Nies- und Handhygiene gelernt. Auch für unser Verhalten auf sozialen Medien helfen ein paar einfache Regeln, um die Infodemie einzudämmen:
- Wer gut informiert sein will, darf sich nicht auf Gratisinhalte verlassen.
- Nichts teilen, was man nicht vorher auch komplett gelesen oder angeschaut hat.
- Popularitätswerte wie Likes oder Shares nicht überbewerten: Sie bedeuten fast gar nichts.
- Kommentare mit Skepsis lesen: Nur sehr wenige, sehr aktive und oft ideologisch geprägte Akteure kommentieren sehr viel.
- Laute Minderheiten: Themen und Meinungen online sind nicht repräsentativ für die Gesamtbevölkerung.
- Daran denken: Soziale Netzwerke sind ziemlich uneditiert (jeder kann alles posten) und voller versteckter Werbung.
Langfristig wird es ohne Regulierung nicht gehen. In der Coronaviruskrise haben die Plattformen mit zahlreichen Maßnahmen gezeigt, dass sie Desinformation ernst nehmen. Google priorisierte Informationen aus autoritativen Quellen, Twitter und Facebook löschten Desinformation oder versahen sie mit Warnhinweisen, WhatsApp unterband das massenhafte Teilen von Links in Chatgruppen. Um sinnvolle Regeln für soziale Medien zu finden, wird es nötig sein, dass die Plattformen, Politik und Wissenschaft stärker und besser als bisher kooperieren. Da Facebook, Google u.a. bislang kaum Daten mit unabhängiger Forschung teilen, verstehen wir nur unzureichend, was in den sozialen Netzwerken passiert, wie Informationsflüsse und Diskursdynamiken funktionieren und die disruptiven negativen Effekte auf Demokratie und Gesellschaft zu verhindern wären. Unabhängiger Journalismus muss gestärkt werden, ebenso die Medienkompetenz der Bürgerinnen und Bürger – in allen Altersgruppen.
Die Coronaviruskrise hat in vielen Bereichen Missstände offengelegt. Die Infodemie hat uns gezeigt, wie hervorragend sich soziale Medien zur Verbreitung von Desinformation und Propaganda eignen, wie empfänglich breitere Teile der Bevölkerung für solche Botschaften und wie ungeeignet diese Plattformen für rationale Diskurse sind. Das bleibt auch jenseits der akuten Krise so, ist aber keinesfalls zwangsläufig. Technologien sind nicht statisch, man kann sie verändern. Es bleibt die Aufgabe demokratischer Gesellschaften, darauf zu drängen, dass Technologien ihnen nutzen, statt ihnen zu schaden.
Literatur:
Bennett, W. L./Pfetsch, B.: Rethinking Political Communication in a Time of Disrupted Public Spheres. In: Journal of Communication, 2/2018/68, S. 243 – 253
Bimber, B./Gil de Zúñiga, H.: The unedited public sphere. In: New Media & Society, 4/2020/22, S. 700 – 715
Bobba, G.: Social media populism: features and ‘likeability’ of Lega Nord communication on Facebook. In: European Political Science, 18/2019, S. 11 – 23
Echtermann, A.: Datenanalyse: Nutzer finden fragwürdige Corona-Informationen vor allem auf Youtube und verbreiten sie über Whatsapp. In: Correctiv – Recherchen für die Gesellschaft, 02.05.2020. Abrufbar unter: https://correctiv.org (letzter Zugriff: 28.06.2020)
Gabielkov, M./Ramachandran, A./Chaintreau, A./Legout, A.: Social Clicks: What and Who Gets Read on Twitter?. In: ACM SIGMETRICS/IFIP Performance 2016, Jun 2016, Antibes Juan-les-Pins, France 2016
Hemsley, J.: Followers Retweet! The Influence of Middle-Level Gatekeepers on the Spread of Political Information on Twitter. In: Policy & Internet, 3/2019/11, S. 280 – 304
Hölig, S./Hasebrink, U.: Reuters Institute Digital News Report 2020. Ergebnisse für Deutschland. Hamburg 2020. Abrufbar unter: https://www.hans-bredow-institut.de (letzter Zugriff: 28.06.2020)
Horwitz, J./Seetharaman, D.: Facebook Executives Shut Down Efforts to Make the Site Less Divisive. In: The Wall Street Journal, 26.05.2020. Abrufbar unter: https://www.wsj.com (letzter Zugriff: 28.06.2020)
Jost, P./Maurer, M./Hassler, J.: Populism Fuels Love and Anger: The Impact of Message Features on Users’ Reactions on Facebook. In: International Journal of Communication, 22/2020/14, S. 2081 – 2102
Shehata, A./Strömbäck, J.: Learning Political News From Social Media: Network Media Logic and Current Affairs News Learning in a High-Choice Media Environment. In: Communication Research, 1/2018/17
Tufekci, Z.: YouTube, the Great Radicalizer. In: The New York Times, 10.03.2018. Abrufbar unter: https://www.nytimes.com (letzter Zugriff: 28.06.2020)
Vosoughi, S./Roy, D./Aral, S.: The spread of true and false news online. In: Science, 6380/2018/359, S. 1146 – 1151
Zuboff, S.: The age of surveillance capitalism. The fight for a human future at the new frontier of power. London 2019