Meine Merkliste Geteilte Merkliste PDF oder EPUB erstellen

Warnen oder Löschen: Wie sollen Plattformen mit Falschmeldungen verfahren? | Digitale Desinformation | bpb.de

Digitale Desinformation Was ist Digitale Desinformation Desinformation: Vom Kalten Krieg zum Informationszeitalter Von der Aufmerksamkeits-Ökonomie zur desinformierten Gesellschaft? Fake News als aktuelle Desinformation Propaganda 4.0 von Europas Rechtspopulisten Halbwahrheiten. Zu einem Instrument der Desinformation Desinformation und der Krieg in der Ukraine Russlands Kommunikationsstrategien im Krieg gegen die Ukraine Prorussische Narrative in Indiens Sozialen Medien Nachrichten aus dem Kreml Desinformation und Bundestagswahl 2021 Bundestagswahl und digitale Desinformation IV Bundestagswahl und digitale Desinformation III Bundestagswahl und digitale Desinformation II Das Narrativ vom Wahlbetrug Hybride Bedrohung als internationale Herausforderung Selbstverpflichtungen für einen fairen digitalen Wahlkampf Transparenz als Mittel gegen die digitale Verbreitung von Desinformation Bundestagswahl und digitale Desinformation I Bundestagswahl und digitale Desinformation V Ordnungsbildung in Online-Kommunikationsräumen Meinungsbildung- und Informationsvermittlung Microtargeting und Manipulation: Von Cambridge Analytica zur Europawahl Frankreichs Gesetzgebung gegen die Verbreitung von Falschnachrichten Bürger oder Bots? Automatisierte Kommunikation im Bundestagswahlkampf 2017 Die Medienlogik der Informationsintermediäre und ihre Bedeutung für Meinungsbildung Desinformation - Der globale Blick Folge 1 – Der Hack Folge 2 – Die Briefwahl Folge 3 – Die Operation Folge 4 – Der Ernstfall Folge 5 – Die Netzwerke Folge 6 – Das Experiment Folge 7 – Der Ausweg Folge 8 – Der Lichtblick Impressum Digitale Desinformation und Soziale Medien Wie sollen Plattformen mit Falschmeldungen verfahren? Über die "Messengerisierung" der Politik Neue Herausforderung "Dark Social"? Social Bots: Zwischen Phänomen und Phantom Relevanz und Regulierung von Social Bots Wie umgehen mit Digitaler Desinformation? Lügen im Netz: Sich davor schützen und andere aufklären Kritische Medienkompetenz Strategien der Europäischen Union gegen Desinformation Möglichkeiten und Grenzen von Faktenchecks Schutzmaßnahmen der Internetkonzerne Presseschau zur Europawahl 2019: Digitale Desinformation und Fake News Redaktion

Warnen oder Löschen: Wie sollen Plattformen mit Falschmeldungen verfahren?

Philipp Müller

/ 8 Minuten zu lesen

Was unternehmen Facebook, Twitter und Co. gegen Desinformation? Sollen sie ihre Nutzer nur vor Falschmeldungen warnen oder diese und andere problematische Inhalte direkt entfernen? Einige Maßnahmen sind nützlich, andere eher kontraproduktiv.

Mit einer Werbekampagne will Facebook im Sommer 2018 darauf aufmerksam machen, dass das Netzwerk verstärkt gegen Fake News vorgehen will. (© picture alliance/ZUMA Press)

Soziale Netzwerkseiten (SNS) im Internet ziehen (neben vielen wünschenswerten) eine ganze Reihe problematischer Inhalte an: Es finden sich auf den Seiten Beleidigungen, Diskriminierungen, Verschwörungstheorien, politische Propaganda und Falschmeldungen. Doch welche Maßnahmen erscheinen dagegen angebracht und sinnvoll? Vor allem Facebook hat in den vergangenen Jahren verschiedene Versuche unternommen, einer wachsenden öffentlichen Debatte zu dieser Frage zu begegnen und gleichzeitig die prinzipielle Zugangsoffenheit für jede Art von Inhalten zu erhalten. Die Ideen reichen dabei von der Zusammenarbeit mit sogenannten "Fact-Checking"-Partnern, die inhaltlich zweifelhafte Botschaften nachrecherchieren, bis hin zu einer Anpassung der Algorithmen, die darüber entscheiden, welche Inhalte Nutzern angezeigt werden. Doch der Grundton der öffentlichen Debatte bleibt kritisch und scheint sich vor allem Löschungen problematischer Inhalte zu wünschen. Damit soziale Netzwerkseiten dies konsequenter angehen, hat die Bundesregierung im Jahr 2017 eigens ein Gesetz erlassen, das Netzwerkdurchsetzungsgesetz (NetzDG).

Bei Beleidigungen, Verleumdungen oder Volksverhetzung scheint der Fall eindeutig. Derartige Äußerungen verstoßen gegen geltendes Recht und müssen schon allein deshalb von den Plattformen genommen werden. Streiten lässt sich hier lediglich darüber, ob die Entscheidung, wann ein solcher Straftatbestand erfüllt ist, von den Plattform-Betreibern autark getroffen werden kann und sollte, oder ob dies nicht in jedem Einzelfall ein Gericht zu entscheiden hätte.

Wenn es hingegen um bewusst verbreitete Falschmeldungen geht, die derzeit unter dem Begriff "Fake News" durch die öffentliche Debatte geistern, ist die Lösung weniger klar. Denn im Rahmen der Meinungsfreiheit steht es in demokratischen Staaten, aus gutem Grund, jedem frei auch Unwahrheiten zu behaupten, sofern diese Behauptungen keinem anderen direkt schaden. Dies ist unter anderem deshalb so geregelt, weil es im Einzelfall gar nicht so einfach ist, eindeutig festzulegen, ob eine Aussage wahr oder unwahr ist. Würde nun das Verbreiten der Unwahrheit per se unterbunden, könnte dies zur Unterdrückung gesellschaftlich randständiger, aber nicht unbedingt unwahrer Auffassungen und Behauptungen beitragen.

Problemfall "Overblocking"

Forschungsergebnisse legen nahe, dass Falschmeldungen eher geglaubt werden, wenn sie das bereits vorhandene Weltbild ihrer Leser bestätigen, als wenn sie ihm widersprechen. Jedoch bedeutet dies dennoch, dass von jeder zusätzlichen Verbreitung ein schädliches Wirkpotential ausgehen kann, wenn nur die richtige Leserin oder der richtige Leser erreicht wird. Insofern erscheint es wünschenswert, dass eindeutig als falsch identifizierbare Meldungen so wenige Nutzer erreichen wie möglich. Das Löschen von Falschmeldungen ist dennoch mit Vorsicht zu genießen ist. Denn oft ist nicht eindeutig nachweisbar, ob eine Aussage wahr ist. Die Wissenssoziologie legt zudem nahe, dass es immer auch vom kulturellen und historischen Kontext abhängt, ob eine Aussage in der Gesellschaft für wahr gehalten wird. Bei einer rigiden Löschung vermeintlicher Unwahrheiten auf sozialen Netzwerkseiten könnten daher auch eigentlich wahre Inhalte gelöscht werden. Man spricht hier von "Overblocking".

Das Problem verschärft sich, wenn die Entscheidung darüber, welche Inhalte gelöscht werden, in der Hand von Unternehmen mit wirtschaftlichen Eigeninteressen liegt. Das 2017 in Kraft getretene NetzDG verpflichtet SNS-Betreiber unter Androhung hoher Geldstrafen dazu, Inhalte, die von Nutzern oder Beschwerdestellen als problematisch gemeldet werden, zeitnah zu überprüfen und gegebenenfalls zu löschen. Um drohenden Strafen zu entgehen, könnten die Betreiber daher in größerem Umfang Inhalte löschen, als eigentlich sinnvoll wäre. Die Schaffung einer öffentlichen Ombudsinstanz, der verschiedene Akteure der Zivilgesellschaft angehören und die von den Betreibern vorgenommene Löschungen kontrolliert, erscheint empfehlenswert.

Das wird man doch wohl noch sagen dürfen!

Ein zweites Problem besteht in dem durch Löschungen womöglich entstehenden Eindruck, dass besonders politisch missliebige Inhalte entfernt werden sollen. Die gesamte Debatte um Falschmeldungen im Internet muss vor dem Hintergrund gegenwärtiger politischer Entwicklungen betrachtet werden. Weltweit erleben wir einen Aufschwung rechtspopulistischer Bewegungen, die von einer Verschwörung der gesellschaftlichen Eliten gegen die Interessen des Volkes ausgehen und nationalstaatliche Abschottung fordern. Diese Forderungen richten sich gegen das gesellschafts- wie wirtschaftspolitisch liberale Lager, das das politische Geschehen in den vergangenen Jahrzehnten dominiert hat. Innerhalb dieser Debatte ist der "Fake-News"-Vorwurf zum Kampfbegriff mutiert, um Informationen zu diskreditieren, die von der jeweils anderen Seite stammen.

Wenn nun vor allem solche Falschmeldungen von sozialen Netzwerkseiten gelöscht werden, die der rechtspopulistischen Position Vorschub leisten, könnte dies als neuerlicher Beleg für die unterstellte Elitenverschwörung gedeutet werden, selbst wenn es sich um nachweislich unwahre Inhalte handelt. Dies würde einerseits die rechtspopulistische Argumentation innerhalb ihrer Anhängerschaft stärken und könnte andererseits dazu führen, dass sich ihre Anhänger neue spezialisierte Plattformen zum Meinungsaustausch im Internet suchen, und so eine Aufspaltung gesellschaftlicher Informationsumgebungen vorantreiben. Um kein zusätzliches Öl ins Feuer der gegenwärtigen Debatten zu gießen, sollte eine Löschung von Inhalten daher zurückhaltend vorgenommen werden und ausschließlich dann erfolgen, wenn ein nachweislicher und am besten von einer unabhängigen Stelle überprüfter Gesetzesverstoß vorliegt.

Warnen statt Löschen?

Wenn nun also das Löschen von Inhalten nicht das erste Mittel der Wahl ist, um Falschmeldungen im Internet zu begegnen, wie steht es dann mit Warnhinweisen? Facebook arbeitet zum Beispiel in vielen Ländern mit journalistischen Dienstleistern zusammen, die Hinweise auf über das Netzwerk verbreitete Falschmeldungen liefern und eigene Artikel zum Thema beisteuern, die die Fehlinformationen korrigieren. In Deutschland sind dies der Rechercheverbund Correctiv sowie seit März 2019 dieExterner Link: Deutsche Presseagentur. Die auf diese Weise als Falschmeldung identifizierten Inhalte werden von Facebook nicht gelöscht, jedoch algorithmisch abgewertet und Nutzern dadurch mit einer geringeren Wahrscheinlichkeit angezeigt. Zudem erhalten Nutzer auf Facebook, anders als auf Twitter, zwei Arten von Warnhinweisen:

  • Wenn sie einen von Fact-Checkern angezweifelten Beitrag teilen und damit weiterverbreiten wollen, erscheint eine Pop-Up-Meldung die darauf hinweist, dass es sich um eine angezweifelte Meldung handelt

  • Wenn sie einen angezweifelten Beitrag betrachten erscheinen darunter Links zu korrigierenden Artikeln der Fact-Checking-Partner unter der Überschrift "Mehr zum Thema." Ursprünglich hatte Facebook hierfür eine deutlichere Markierung verwendet: Ein rotes Warnsymbol und der Hinweis "Von Faktenprüfern angezweifelt" erschienen direkt unter der Meldung. Externer Link: Diese Variante wurde allerdings bald wieder aufgegeben.

Ein großes Problem besteht aber darin, dass Nutzer Warnhinweise als Bevormundung erleben und mit Wut und Trotz reagieren können. In der psychologischen Literatur wird dieses Phänomen Reaktanz genannt. Wenn Menschen ihre persönlichen Handlungsspielräume als von außen eingeschränkt empfinden, reagieren sie mit Verärgerung und führen trotzig das beabsichtigte Verhalten erst recht durch. Im Kontext persuasiver (überredende) Medienbotschaften kann ein sogenannter "Boomerang-Effekt" die Folge sein: Wenn Nutzer merken, dass sie, zum Beispiel durch einen Warnhinweis, in eine bestimmte Richtung überzeugt werden sollen (man spricht hier von "Persuasionswissen"i), gehen sie von einem illegitimen Beeinflussungsversuch aus und vertrauen umso stärker ihrer ursprünglichen Überzeugung.

Gleichzeitig lässt sich hinterfragen, ob ein Warnhinweis, der lediglich mit "Mehr zum Thema" überschrieben ist, überhaupt als Korrektur zur Kenntnis genommen wird. Auf Nachrichtenseiten im Internet ist es inzwischen weit verbreitet, am Ende eines Artikels oder schon im Textlauf Hinweise auf weiterführende Artikel zu einem Thema zu platzieren. Inhaltlich enthalten diese anderen Artikel üblicherweise vertiefende, aber eben gerade nicht vollständig widersprüchliche Informationen zu einem Thema. Die seit Ende 2017 von Facebook eingesetzten Warnhinweise entsprechen in der Aufmachung diesen Verweisen auf andere Artikel und machen nur bei genauerem Hinsehen und Lesen deutlich, dass sie inhaltlich gegenläufige Informationen beinhalten. Diese Warnungen könnten so dezent sein, dass sie in vielen Fällen schlicht nicht auffallen.

Ein drittes Problem für die Effektivität von Warnhinweisen ergibt sich aus dem sogenannten "Sleeper"-Effekt. Hierbei handelt es sich um die schon in den 1950er Jahren gemachte Beobachtung, dass sich Menschen nach der Rezeption von Nachrichteninhalten oft nach einer gewissen Zeit zwar noch an die Botschaft selbst erinnern, aber vergessen haben, aus welcher Quelle sie eine Information hatten und wie sie diese Quelle zum Zeitpunkt der Rezeption bewertet haben. Dies bedeutet: Einmal gelesene Warnhinweise könnten eher in Vergessenheit geraten als die eigentlichen Inhalte einer Falschmeldung.

Zwischen öffentlicher Aufgabe und algorithmischer Selektion

Anhand der hier zusammengetragenen Argumente lässt sich schlussfolgern, dass das Löschen eine Reihe problematischer Folgen haben kann, da es einerseits in die Meinungsfreiheit eingreift und andererseits in populistischen Diskursen als Beleg für eine gesellschaftliche Elitenverschwörung verwendet werden könnte. Gleichzeitig müssen natürlich Meldungen, die gegen geltendes Recht verstoßen, weil sie zum Beispiel Verleumdungen oder Volksverhetzung enthalten, gelöscht werden. Dieses Mittel sollte jedoch sparsam und nicht in Eigenverantwortung von den Plattform-Unternehmen umgesetzt werden. Hier handelt es sich vielmehr um eine öffentliche Aufgabe.

Auch bei Warnhinweisen sind Zweifel angebracht. Sind sie zu drastisch formuliert, könnten sie Reaktanz erzeugen. Sind sie zu schwach formuliert, könnten sie überlesen werden. Zudem könnten sie über längere Zeiträume in Vergessenheit geraten. Dennoch kann nicht ganz auf sie verzichtet werden. Insbesondere Warnhinweise vor der Weiterverbreitung, also dem Teilen, von Falschmeldungen erscheinen angezeigt, da die persönliche Empfehlung von Nutzer zu Nutzer einen der zentralen Mechanismen bei der Verbreitung von Falschmeldungen im Internet darstellt.

Ein weiterer Ansatzpunkt, um die Verbreitung von Falschmeldungen einzudämmen, besteht in der algorithmischen Selektion. Vorprogrammierte Entscheidungsregeln definieren, welche Inhalte Nutzer auf SNS-Plattformen mit welcher Wahrscheinlichkeit angezeigt bekommen. Aus demokratietheoretischer Sicht erscheint es wünschenswert, dass hierbei eine Vielfalt von Informationsquellen, Themen und Meinungen Aufmerksamkeit erfährt. Gleichzeitig ist es jedoch möglich, auf diese Weise ganz ohne Löschungen und Warnhinweise die Verbreitung von eindeutig als falsch identifizierten Informationen erheblich einzuschränken. Facebook hat dies, nach eigenen Angaben, in Externer Link: jüngerer Zeit verstärkt umgesetzt. Offenbar mit Erfolg, denn eine Externer Link: Studie aus den USA zeigt, dass der Anteil von Falschmeldungen auf Facebook seit 2017 erheblich zurückgegangen ist, während er gleichzeitig auf Twitter weiter anstieg.

Diese unterschiedlichen Entwicklungen der beiden sozialen Netzwerkseiten weisen einmal mehr darauf hin, wie problematisch es sein kann, dass die wenigen zentralen Informationsplattformen im Internet in der Hand privatwirtschaftlich arbeitender und der Allgemeinheit nur bedingt rechenschaftspflichtiger Unternehmen liegen. So bleibt es letztlich den Entscheidungen dieser Unternehmen überlassen, ob und welche Maßnahmen gegen die Verbreitung von Falschinformationen getroffen werden.

Fussnoten

Fußnoten

  1. Siehe Kunda,Ziva: The case for motivated reasoning. Psychological Bulletin, 108(3), 1990, S. 480-498 und Nickerson, Raymond S.: Confirmation bias: A ubiquitous phenomenon in many guises. Review of General Psychology, 2(2), 1998, S. 175-220.

  2. Berger, Peter L./Luckmann, Thomas: Die gesellschaftliche Konstruktion der Wirklichkeit. Eine Theorie der Wissenssoziologie. Frankfurt a. M. 1969.

  3. Vgl. Müller, Philipp/Denner, Nora: Was tun gegen "Fake News"? Eine Analyse anhand der Entstehungsbedingungen und Wirkweisen gezielter Falschmeldungen im Internet (2. Auflage). Potsdam-Babelsberg 2019, Friedrich-Naumann-Stiftung für die Freiheit.

  4. Vgl. Waisbord, Silvio: Truth is what happens to news. On journalism, fake news, and post-truth. Journalism Studies, 19(13), 2018, S. 1866-1878.

  5. Siehe Müller, Philipp: Polarisierung des Publikums. Wie sich die Beziehung zwischen Journalismus und Bürgern verändert – und warum. In: Limbourg, Peter/Grätz, Ronald (Hg.): Meinungsmache im Netz: Fake News, Bots und Hate Speech, Göttingen 2018, S. 33-43.

  6. Siehe Brehm, Jack Williams: A Theory of Psychological Reactance. New York 1966.

  7. Siehe Kumkale, G. Tarcan/Albarracín, Dolores: The sleeper effect in persuasion: A meta-analytic review. Psychological Bulletin, 130(1), 2004, S. 143-172.

  8. Siehe Kumkale, G. Tarcan/Albarracín, Dolores: The sleeper effect in persuasion: A meta-analytic review. Psychological Bulletin, 130(1), 2004, S. 143-172.

  9. Siehe del Vicario, Michaela et al.: The spreading of misinformation online. Proceedings of the National Academy of Sciences of the United States of America, 113(3), 2016, S. 554-559.

Lizenz

Dieser Text ist unter der Creative Commons Lizenz "CC BY-NC-ND 3.0 DE - Namensnennung - Nicht-kommerziell - Keine Bearbeitung 3.0 Deutschland" veröffentlicht. Autor/-in: Philipp Müller für bpb.de

Sie dürfen den Text unter Nennung der Lizenz CC BY-NC-ND 3.0 DE und des/der Autors/-in teilen.
Urheberrechtliche Angaben zu Bildern / Grafiken / Videos finden sich direkt bei den Abbildungen.
Sie wollen einen Inhalt von bpb.de nutzen?

Weitere Inhalte

ist Akademischer Rat am Institut für Medien- und Kommunikationswissenschaft der Universität Mannheim. Seine Arbeitsschwerpunkte liegen in den Bereichen politische Kommunikation, Rezeption & Wirkung journalistischer Medienangebote sowie Medienwandel & Digitalisierung.