zurück 
4.10.2021

Ordnungsbildung in Online-Kommunikationsräumen

Der Ruf nach Interventionen zum Schutz demokratischer Öffentlichkeiten vor digitaler Desinformation wird immer lauter. Im Fokus der Diskussion stehen dabei Gesetze, Gemeinschaftsstandards und das Plattformdesign.

Plattformen, Nutzer/-innen, Politik - im Umgang mit Desinformationen in Sozialen Medien sind alle Akteure gefragt. (© picture alliance / Andrea Warnecke/dpa-tmn | Andrea Warnecke)


Noch nie hatten wir Zugang zu so vielen Informationen – und konnten weltweit, in Sekundenbruchteilen kommunizieren. Die Anzahl der Videos, Posts und Nachrichten, die wir sehen, lesen und hören können, ist stark gestiegen. Doch wer entscheidet, was uns erreicht? Kann man "gute" Informationen von "schlechten" Informationen, "richtige" von "falschen" sauber trennen? Und wenn ja, wer ist dafür zuständig? Die Plattformen, auf denen diese Informationen zu finden sind – oder die Staaten selbst?

Es fällt schwer, Desinformation sauber zu definieren. Auch zutreffende Informationen können, wenn sie ihrem Kontext entkleidet werden oder strategisch lanciert werden, desinformativ wirken. Desinformationen können sogar größtenteils korrekte Informationen enthalten, die aber selektiv eingesetzt werden, um politische Diskussionen und Interpretationen zu beeinflussen. So stellt z. B. Satire in der Regel keine bewusste Desinformation dar, da ihre Autorinnen und Autoren in erster Linie mehr unterhalten als beeinflussen möchten; dennoch können Satiren auch politische Diskurse beeinflussen. Es ist daher sinnvoll, von Desinformation nur dann zu sprechen, wenn es um die bewusste Verbreitung falscher Informationen zu einem strategischen Ziel – wie der Senkung des Vertrauens in die Medien, die Verächtlichmachung von Personen oder Gruppen oder die Nichtteilnahme an Wahlprozessen – geht.

Warum ist digitale Desinformation besonders gefährlich?

Bedroht Desinformation die soziale Ordnung?

Nein. Lügen hat es immer gegeben, Desinformation als strategische Form der Online-Lüge ist zwar ein neues Phänomen, führt aber selbst im Aggregat (bisher) zu keinem fundamentalen Wertewandel in unseren Gesellschaften. Wer Desinformation untersucht, sieht sich mit dem Problem konfrontiert, dass die konkrete Wirkung von einzelnen Desinformationen schwer zu messen ist. Menschen gewinnen ihr Wissen aus vielen verschiedenen Quellen; ihre Medienrepertoires sind durch das Internet weiter, nicht enger geworden; klassische Medien spielen immer noch – bis auf in der Gruppe der Jungen und Jugendlichen – eine zentrale Rolle in der Nachrichtenrezeption.

Doch es stimmt: Vorurteile und mangelndes Wissen machen uns anfälliger für die Aufnahme von Fehl- und Desinformationen. Aufgrund der menschlichen Schwäche für Vorurteile glauben Leser und Leserinnen lieber Informationen, die ihre Meinung bestätigen und wehren Informationen, die ihr Weltbild destabilisieren würden, eher ab. Desinformationsakteurinnen und -akteure nutzen dies aus. Hinzu kommt, dass deren Autorinnen und Autoren das Internet zunehmend als Mittel zu ihrer strategischen Verbreitung ausnutzen. Menschen beurteilen den Wert von Nachrichten häufig aufgrund ihres Vertrauens in das genutzte Medium, nicht in das der Nachricht selbst. Diese Bedeutung von Vertrauen ist auch nachvollziehbar, da Menschen kaum in der Lage sind sich jederzeit alle nötigen Informationen selbst zu beschaffen. Guter Arbeit von Journalistinnen und Journalisten muss man vertrauen können. Diese traditionelle und grundlegende Vertrauensbasis muss für die Nachrichtenproduzentinnen und -produzenten der Online-Welt jedoch neu definiert werden.

Die juristische Dimension der Diskussion

Die Staaten sind in erster Linie verantwortlich, die Menschenrechte und Grundfreiheiten zu schützen, auch im digitalen Umfeld. Die Schutzpflicht des Staates endet nicht am Keyboard oder am Smartphone. Kompliziert wird es jedoch wenn diese Grundfreiheiten einander widersprechen, denn Staaten haben die negative Verpflichtung, Menschenrechte nicht zu verletzen, aber auch die positive Verpflichtung, die Menschenrechte zu schützen und sie in der Praxis umzusetzen. Jeder Eingriff stellt somit eine Abwägung dar, die stets im konkreten Kontext zu bewerten ist. Staaten versuchen dieser Pflicht nachzukommen, indem sie ein rechtssicheres Umfeld auch im Internet schaffen – durch eigene Gesetze und durch Kontrolle der Regeln der Plattformen.

Online-Kommunikationsräume werden auf verschiedenen Ebenen reguliert: internationales Recht, regionale Standards, nationale Gesetze sowie das private Recht der Plattformen. Der größte Teil von Desinformation kann von Staaten nicht einfach verboten werden, da die meisten Desinformationen nicht strafwürdig sind (und nach aktuellem Recht auch nicht strafbar). Desinformation über Personen kann verboten werden, wenn sie nicht nur Meinungen, sondern falsche Aussagen enthält. Beleidigung und Verleumdung können als Straftaten geltend gemacht werden. Neue Regeln, die das Recht zur Verbreitung von Unwahrheiten einschränken wollen, müssen jedoch Rücksicht auf die Meinungsfreiheit nehmen.

Sollte Desinformation in sozialen Medien aktiv bekämpft oder ignoriert werden?

Wie erst Ende Juli 2021 der Bundesgerichtshof bestätigte, können Plattformen grundsätzlich selbst entscheiden, welche Inhalte gemäß ihren Nutzungsbedingungen oder Community-Richtlinien gelöscht werden, ob legal oder nicht. (Sie müssen allerdings rasch nach Löschung den Userinnen und Usern einen Rechtsweg einräumen). Plattformen sind regelmäßig nicht in der Lage, verlässlich zu sagen, ob ein Posting eine Desinformation darstellt. Daher sollten unter dem Label "Desinformationen" nicht überschießend Löschungen durchgeführt werden. Auch die Flucht in die algorithmische Inhalteregulierung scheint – zumindest im Kampf gegen Desinformation – nicht immer zielführend zu sein, da Identifikation und Bewertung dieser Inhalte für automatisierte Prozesse zu komplex sind. Plattformen vermelden dennoch regelmäßig Erfolge im Kampf gegen größere Netzwerke von "koordiniertem inauthentischem Verhalten". Hier werden unter großem Aufwand Akteure identifiziert und von den Plattformen verbannt. Ob diese Entscheidungen richtig und angemessen waren, ist von Fall zu Fall umstritten. Fehlende Transparenz über derartige Entscheidungen und mangelnde Einspruchsmöglichkeiten gegen sie, machen diese Verfahren jedoch selbst zum Problem.

Neben dem Bann von Akteuren können Social-Media-Unternehmen auch die Verbreitung von Fehlinformationen beeinflussen. Eine einmal als falsch identifiziert Information kann innerhalb des Nachrichtenfeeds der jeweiligen Plattform so herabgestuft werden, dass sie weniger gesehen und weniger geteilt wird. Außerdem können Benutzerinnern und Benutzer, wenn sie mit einer solchen Information interagieren auf problematische Inhalte hingewiesen, oder durch Links zu vertrauenswürdigen Studien oder Artikel von etablierten Nachrichtenagenturen zum Thema geführt werden. Die Wirkung solcher Hinweise ist jedoch umstritten, da sie von Nutzer und Nutzerinnen als belehrend empfunden werden und so eher eine verstärkende Wirkung der Desinformation entfalten.

Es hat deshalb regelmäßig wenig Sinn, einen Inhalt als nicht vertrauenswürdig zu kennzeichnen. Benutzerinnen und Benutzer nehmen solche Hinweise eher als Versuch wahr, sie zu beeinflussen. Menschen sehen leicht ihre persönliche Freiheit verletzt, wenn eine Autorität ihnen sagt, dass sie etwas nicht tun oder glauben sollen, mit der Folge, dass sie – jetzt erst recht – Desinformation teilen. Solche ‚Bumerang’-Effekte müssen vermieden werden. Wird ein Hinweis dagegen zu klein und neutral formuliert (z. B. "Weitere Informationen unter..."), wird möglicherweise nicht klar, dass der Hinweis die Nachricht korrigieren soll.

Wie sollen wir nun mit Desinformationen umgehen?

Wahrheit muss sich in Gesellschaften stets einen Platz erkämpfen. Mit Mitteln des Rechts gegen Unwahrheiten vorzugehen, verbietet sich regelmäßig – auch wegen der mangelnden Skalierbarkeit und Geschwindigkeit. Maßnahmen werden nur dann verfassungsrechtlich vertretbar sein, wenn mit ausreichend hoher Wahrscheinlichkeit unmittelbare Gefahren für individuelle Rechtsgüter wie Leben und körperliche Unversehrtheit drohen. Darüber hinaus werden Informationsflüsse vor und während Wahlen besonders schützenswert sein, weil unwahre Aussagen ggf. nicht rechtzeitig korrigiert werden können.

Neben staatlichen Maßnahmen bieten sich vor allem freiwillige Kennzeichnungen und Fact-Checking-Verfahren an, aber auch im Rahmen der Empfehlungsalgorithmen sichtbar zu machende Verbreitungshindernisse für Desinformation. Besonders effektiv im Kampf gegen Desinformation sind indes systemische Interventionen zur Hebung der "Information Literacy", also der Fähigkeit Informationen einordnen zu können, in allen Phasen der Bildungsbiographie. Desinformation zu bekämpfen ist eine gesellschaftliche Aufgabe, keine vorwiegend rechtliche.
Creative Commons License

Dieser Text ist unter der Creative Commons Lizenz "CC BY-NC-ND 3.0 DE - Namensnennung - Nicht-kommerziell - Keine Bearbeitung 3.0 Deutschland" veröffentlicht. Autor/-in: Matthias C. Kettemann für bpb.de

Sie dürfen den Text unter Nennung der Lizenz CC BY-NC-ND 3.0 DE und des/der Autors/-in teilen.
Urheberrechtliche Angaben zu Bildern / Grafiken / Videos finden sich direkt bei den Abbildungen.

Matthias C. Kettemann

Matthias C. Kettemann

Prof. Dr. Matthias C. Kettemann, LL.M. (Harvard) ist Professor für Innovation, Theorie und Philosophie des Rechts an der Universität Innsbruck und leitet am Leibniz-Institut für Medienforschung | Hans-Bredow-Institut ein Forschungsprogramm zu privater Ordnungsbildung in Online-Kommunikationsräumen.


Nach oben © Bundeszentrale für politische Bildung Zur klassischen Website von bpb.de wechseln