Meine Merkliste Geteilte Merkliste PDF oder EPUB erstellen

Kommunikation, Medien und die öffentliche Debatte | Digitalisierung | bpb.de

Digitalisierung Editorial Einführung und Überblick: Was bedeutet Digitalisierung? Zentrale Elemente der Digitalisierung Kommunikation, Medien und die öffentliche Debatte Gesellschaft, Kultur und Bildung Infrastruktur und Umwelt Wirtschaft und Arbeit Gesundheit und Krankheit Kriminalität, Sicherheit und Freiheit Politik, Recht und Verwaltung Handlungsspielräume und digitalethische Fragen Glossar Literaturhinweise und Online-Ressourcen Impressum

Kommunikation, Medien und die öffentliche Debatte

Jaana Müller-Brehm Philipp Otto Michael Puntschuh

/ 13 Minuten zu lesen

Das Internet macht eine Fülle von Informationen zugänglich und ermöglicht es, zeit- und ortsunabhängig direkt miteinander zu kommunizieren. Algorithmische Systeme treten dabei als Vermittler auf. Die neuen Kommunikations- und Informationsangebote verändern die öffentliche Debatte und die Debattenkultur.

Nach Schätzungen nutzen weltweit inzwischen um die drei Milliarden Menschen Smartphones. Neben Funktionen als Telefon, Kamera, Datenverwaltung und Navigationshilfe ermöglichen sie und andere mobile Endgeräte über Onlinedienste Information, Unterhaltung und Kommunikation unabhängig von Zeit und Ort. Vertieft in ihre Smartphones warten Reisende in New York 2019 auf die nächste U-Bahn. (© picture-alliance, Photoshot)

Im Verlauf der 1990er-Jahre verbreiteten sich in unserer Gesellschaft Computer und gegen Ende des Jahrzehnts auch Internetanschlüsse. Kurze Zeit später, etwa ab der Jahrtausendwende, kamen allmählich Smartphones und andere mobil nutzbare Endgeräte hinzu (siehe auch Kapitel Interner Link: Infrastruktur und Umwelt). Im Jahr 2019 verfügten laut der repräsentativen Umfrage "Digital-Index 19/20" 79 Prozent der Deutschen über ein Smartphone, das ihnen Zugriff auf das Internet und damit auf zahlreiche Kommunikations- sowie Informationsangebote erlaubt. Dies bewirkte eine grundlegende Veränderung der privaten und öffentlichen Kommunikation. Auch die Verfügbarkeit und die Darstellung von Informationen unterliegen seither einem umfassenden Wandel. Diese Entwicklungen beeinflussen die öffentliche Debatte als einen zentralen Bestandteil unserer demokratischen Gesellschaft.

Kommunikation und Information online

Mit der Möglichkeit, fast überall und jederzeit auf das Internet zugreifen zu können, entstanden neue Formen des Austauschs und der Information: Dazu zählen unter anderem soziale Netzwerke, Messengerdienste (Nachrichtendienste für Smartphones), Datingportale zur Partnersuche, Videoplattformen oder Web- und Microblogs als Teil des Interner Link: Social Webs.

Diese neuen Kommunikations- und Informationsangebote ermöglichen es Nutzerinnen und Nutzern, losgelöst von Ort und Zeit miteinander zu kommunizieren und direkt aufeinander zu reagieren. Anders als etwa beim Telefonieren muss die Online-Technologie dabei nicht gleichzeitig zum Einsatz kommen, sondern kann zeitlich versetzt verwendet werden. Außerdem ist die Kommunikation medial, beispielsweise schriftlich, fixiert. Angebote des Social Webs kombinieren auf diese Weise Merkmale von mündlicher und schriftlicher Kommunikation sowie unterschiedliche Formate wie Text, Audio, Video und Bild.

Nutzung von Snapchat und Instagram 2019. Eigene Darstellung auf Basis diverser Quellen (© bpb)

Das gilt sowohl für (teil-)öffentliche Kommunikation etwa in sozialen Netzwerken als auch für private Kommunikation über Messengerdienste. In unseren Interner Link: Feeds, unseren personalisierten Startseiten in den sozialen Netzwerken, mischen sich Inhalte von Privatleuten, von Personen aus Journalismus und Politik und von Aktivistinnen und Aktivisten. Hinzu kommen bezahlte Werbung sowie Inhalte, die zu den Public Relations, der Öffentlichkeitsarbeit, zählen.
Die Angebote des Social Webs erlauben nicht nur, orts- und zeitüberschreitend miteinander zu kommunizieren und direkt aufeinander zu reagieren. Mit ihrer Hilfe können auch alle publizieren, die über die dafür notwendigen Endgeräte, Zugänge und Kenntnisse verfügen. Vor dem Social Web war dies weitgehend einer kleinen Gruppe von speziell dafür ausgebildeten Menschen vorbehalten: Journalistinnen und Journalisten. Online können die Nutzerinnen und Nutzer nun selbst entscheiden, was sie wie veröffentlichen. Diese Möglichkeiten führen zu ganz neuen Mediengenres wie etwa Podcasts oder Videoblogs, publiziert sowohl von Laien wie auch von Medienhäusern, Verlagen oder freischaffenden Journalistinnen und Journalisten (siehe auch Kapitel Interner Link: Klassische Massenmedien und journalistisches Arbeiten).

Weil alle publizieren können und weil über das Internet und entsprechende Interner Link: Software  ein gezielter Zugang zu bestimmten Inhalten möglich ist, sind insbesondere online Massen an unterschiedlichsten Informationen zugänglich. Menschen können diese Informationsflut nicht mehr erfassen oder gar sortieren. Das übernehmen algorithmische Systeme. Als sogenannte digitale Interner Link: Intermediäre (Vermittler) sollen sie dafür sorgen, dass uns jeweils die Informationen erreichen, die uns potenziell auch interessieren. Dazu wählen sie nach festgelegten Kriterien aus, was der oder dem Einzelnen angezeigt wird. Die Informationszugänge sind also personalisiert. Die Grundlage dafür bilden gesammelte Daten, deren Analyse zeigen soll, welche Inhalte für wen jeweils bedeutsam sein könnten.

Die Rezeption von Inhalten erfolgt online nicht ausschließlich über Angebote des Social Webs. Laut der "Onlinestudie 2019" von ARD und ZDF geben 41 Prozent der Befragten an, das Internet an einem normalen Tag dafür zu nutzen, Texte online zu lesen oder Inhalte wie Filme oder Musik zu streamen. Seit den 2010er-Jahren entstanden zahlreiche Streaming-Plattformen. Sie bieten verschiedene Audio- oder Videoformate zur Information oder Unterhaltung an. Der Begriff Interner Link: Streaming steht generell für das Abspielen von Inhalten in digitalisierter Form. Die Inhalte sind dabei auf den Interner Link: Servern der entsprechenden Anbieter gespeichert und werden als konstanter Datenstrom versendet. Neben spezialisierten Anbietern wie Spotify oder Netflix und ihren Plattformen sind Livestreams auch über Angebote des Social Webs möglich. Die meisten Fernseh- und Radiosender bieten ebenfalls auf ihren eigenen Plattformen Livestreams und Inhalte an, die sie in ihren linearen Programmen abspielen.

Auch in Streaming-Angeboten spielen algorithmische Systeme eine wesentliche Rolle, um auf Grundlage unserer Daten einen personalisierten Zugriff auf Inhalte anzubieten.

Klassische Massenmedien und journalistisches Arbeiten

Mit dem technologischen Wandel entstehen neue Möglichkeiten und Bedingungen für klassische Massenmedien und die Menschen, die in diesem Bereich tätig sind. So verändert sich etwa die Arbeit von Journalistinnen und Journalisten: Wenn alle jederzeit publizieren und Informationen konsumieren können, verbreiten sich Neuigkeiten schnell und häufig auch durch Privatpersonen. Die Folgen sind verdichtete Produktionsabläufe und wachsender Zeitdruck auf alle Beteiligten.

Ein weiteres Beispiel dafür, wie sich die journalistische Arbeit mit der voranschreitenden Digitalisierung verändert, ist der sogenannte Roboterjournalismus. Darunter ist der Einsatz von lernenden algorithmischen Systemen, also Interner Link: Künstlicher Intelligenz, zu verstehen. Hier erzeugt entsprechende Software automatisiert einfache, kurze Nachrichten und Meldungen, wie etwa Wettervorhersagen oder Sport- und Börsenmeldungen.

Die Digitalisierung schafft zudem ein komplett neues journalistisches Genre: den Datenjournalismus. Durch umfangreiche öffentlich zugängliche Datenbestände ist es möglich, diese nach relevanten Informationen zu einem Thema zu durchsuchen. Parallel sammeln Journalistinnen und Journalisten selbst Daten, bereiten sie auf, analysieren und publizieren sie. So entstehen umfassende Datenmengen (Interner Link: Big Data), die teilweise aufgrund gesetzlicher Bestimmungen zugänglich sein müssen oder die Medienschaffende selbstständig zusammentragen und mithilfe automatisierter Auswertungssysteme analysieren und verarbeiten. So ist es ihnen möglich, mithilfe der Daten neue, bisher unbekannte Zusammenhänge aufzudecken.

Ein Beispiel dafür ist die "Coronavirus-Karte für Deutschland", die das journalistische Angebot Zeit Online während der Covid-19-Pandemie 2020 anbietet. Die Karte zeigt etwa Zahlen zu Neuinfektionen, aktiven Fällen, Intensivbetten und Todesfällen. Detailliertere Informationen sind interaktiv zugänglich. Die genutzten Daten ruft Zeit Online mehrmals täglich bei Kreis- und Landesbehörden sowie dem Robert Koch-Institut ab, kombiniert sie und stellt zusätzlich eigene Hochrechnungen an.

Journalismus in klassischen Massenmedien wie in linearen Radio- und Fernsehsendern oder in Zeitungen gibt es selbstverständlich weiterhin. Verlage, Sender und Medienhäuser, die Formate in solchen klassischen Massenmedien anbieten, nutzen meist ergänzend Angebote des Social Webs. So können sie mit Nutzerinnen und Nutzern in Kontakt treten und für eine breitere Streuung ihrer Inhalte sorgen. Teilweise entwickeln solche Anbieter auch neue Formate für diese Kanäle. Ein Beispiel dafür ist das Medienangebot Funk der öffentlich-rechtlichen Sender ARD und ZDF. Es nutzt verschiedene Plattformen des Social Webs, um seine über 70 eigenständigen Formate zugänglich zu machen. Dazu gehören beispielsweise das Politikformat "Deutschland3000" von und mit der Journalistin Eva Schulz oder der Wissenschaftskanal MaiLab von Mai Thi Nguyen-Kim. Zur Zielgruppe zählen vor allem junge Menschen zwischen 14 und 29 Jahren.

Am häufigsten genutzte Nachrichtenquellen in Deutschland. Quelle: Reuters Institute, Digital News Report 2019, S.86/87; Externer Link: http://www.digitalnewsreport.org/survey/2019/germany-2019/ (© 2020 Reuters Institute for the Study of Journalism)

Die technologischen Veränderungen beeinflussen den klassischen Journalismus und seine Medienformate noch auf eine weitere Weise: Die massenmedialen Angebote finanzieren sich vielfach über Werbeanzeigen sowie über Käufe und Abonnements wie im Fall von Zeitungen oder Magazinen. Die Finanzierung über diese Einnahmequellen gestaltet sich zunehmend schwierig, denn die Werbekundinnen und -kunden wandern ab und nutzen vermehrt Online-Werbemöglichkeiten auf Websites, in Suchmaschinen, sozialen Netzwerken und Streaming-Diensten. Durch die Möglichkeit, Werbung personalisiert auszuspielen, erreicht die Werbebotschaft zielgenauer die Person, die sich für das beworbene Angebot interessiert. Gezielte Werbung ist auf diese Weise kostengünstiger möglich als in klassischen Medienformen. Verlage und Sender versuchen deshalb, ihre Online-Angebote über Abonnements und sogenannte Bezahlschranken zu finanzieren oder setzen beispielsweise auf Crowdfunding, die finanzielle Unterstützung interessierter Gruppen.

Jedoch sind nicht alle bereit, für die nach journalistischen Kriterien recherchierten und aufbereiteten Inhalte, Geld zu bezahlen. Denn im Social Web stehen Informationen und Inhalte kostenlos zur Verfügung, was wiederum zur Erwartungshaltung beiträgt, Informationen müssten kostenlos verfügbar sein wie es beispielsweise der "Reuters News Report 2019" nachweist. Dabei bleibt unberücksichtigt, dass hinter den Angeboten im Social Web oftmals ungesicherte Quellen oder große Unternehmen stehen, die sich mithilfe der Daten der Nutzerinnen- und Nutzer unter anderem über Werbung finanzieren.

Jenseits des öffentlich-rechtlichen Angebots, das zu großen Teilen durch den pauschal erhobenen Rundfunkbeitrag bezahlt wird, haben demnach zahlreiche kostenaufwändig produzierte Formate in den klassischen Medien zunehmende Finanzierungsprobleme. In diesem Zusammenhang findet eine gesellschaftliche Debatte darüber statt, wie qualitativ hochwertiger Journalismus gestaltet und finanziert werden kann und welche Funktion ihm in unserer Gesellschaft und Demokratie zukommt.

Öffentliche Debatte im Wandel

Bewältigung der Informationsflut

Die fortschreitende Digitalisierung verändert sowohl das Kommunikations- und Informationsangebot als auch unseren Umgang damit. Nach Ansicht zahlreicher Wissenschaftlerinnen und Wissenschaftler wie beispielsweise der Medienphilosophin Jessica Heesen wirken sich diese Veränderungen auch auf die öffentlichen Debatten aus. Um den Wandel fassbar und verständlich zu machen, sollen zunächst, die grundlegenden Charakteristika der öffentlichen Debatten vor und nach der Digitalisierung gegenübergestellt werden:

In klassischen Massenmedien filtern Menschen in Redaktionen Informationen und klassifizieren sie auf Grundlage gesellschaftlich ausgehandelter Relevanzkriterien in bedeutsam und weniger bedeutsam. Sie legen dar, analysieren, vergleichen und ordnen ein. Dafür sind sie ausgebildet und werden von Verlagen oder Sendern bezahlt. Die Mitglieder einer Gesellschaft können sich auf Grundlage dessen ein Bild über die Welt machen und Meinungen entwickeln, wie etwa der Soziologe Niklas Luhmann in seinen Schriften darlegt. Die Grundlage für die Meinungsbildung über klassische Massenmedien war und ist potenziell allen zugänglich. Einzelne Medienberichte können damit breit und transparent diskutiert werden.

Im Social Web filtern und sortieren dagegen von Menschen programmierte algorithmische Systeme die Informationen und entscheiden so automatisiert, was in unseren Feeds (digitalen Nachrichten) erscheint. Damit haben sie einen zentralen Einfluss darauf, was einzelne Personen erfahren. Die Systeme helfen, die potenziell zugänglichen Informationsmassen zu filtern.

Im Unterschied zu Journalistinnen und Journalisten, die angehalten sind, Informationen im Sinne des gesellschaftlich anerkannten Pressekodex nach Relevanz für die Öffentlichkeit auszuwählen (siehe auch Kapitel Interner Link: Handlungsspielräume und digitalethische Fragen), berücksichtigen algorithmische Systeme auch andere Kriterien. Die Maßstäbe, nach denen sie sortieren, sind weitgehend unbekannt und können sich je nach Angebot unterscheiden. Bekannt ist, dass die Anzahl der Klicks und Interaktionen dabei stets eine Rolle spielt: Je mehr Nutzerinnen und Nutzer einen Inhalt aufrufen, teilen oder kommentieren, desto relevanter wirkt er und desto weiter oben erscheint er in den jeweiligen Feeds. Das beschreibt beispielsweise die Publikation "(Un)berechenbar? Algorithmen und Automatisierung in Staat und Gesellschaft" des Kompetenzzentrums Öffentliche IT aus dem Jahr 2018.

Zwar übernehmen algorithmische Systeme ebenfalls Aufgaben der Regulierung: Sie bewerten Teile der Inhalte automatisiert als angemessen oder unangemessen und sortieren entsprechend aus. Doch können sie den inhaltlichen Zusammenhang nicht im gleichen Maße beurteilen wie das Menschen möglich ist. So kommt es vor, dass ein algorithmisches System legitime Pressefotos wegen Nacktdarstellungen aussortiert, jedoch offen menschenfeindliche Kommentare oder Posts nicht erkennt. In beiden Funktionen, als Sortier- und Regulierungsmaschinen, beeinflussen algorithmische Systeme die freie Meinungsbildung also auf eine andere Weise, als es etwa journalistische Darstellungen in Massenmedien tun.

Teilöffentlichkeiten, Desinformationen und Hassrede

In Zusammenhang mit den Veränderungen der öffentlichen Debatte diskutieren Wissenschaft, Medien und Politik einige zentrale Phänomene. Eines dieser Phänomene sind Interner Link: Filterblasen (Filterbubbles). Demnach filtern algorithmische Systeme Informationen so stark nach den jeweiligen individuellen Vorlieben, dass wir stets die Information erhalten, die potenziell unserer Meinung entspricht, diese also bestätigen. Diesem Konzept folgend tauchen gegensätzliche Perspektiven in den personalisierten Feeds und Suchergebnisseiten kaum noch oder gar nicht mehr auf.

In der Wissenschaft kursieren bislang unterschiedliche Ergebnisse in Bezug auf die Existenz von Filterblasen und ihren Einfluss auf die freie Meinungsbildung. Das ist unter anderem darauf zurückzuführen, dass die auswertbare Datengrundlage gegenwärtig für abschließende Antworten noch nicht ausreicht. Die dafür notwendigen Daten der Nutzerinnen und Nutzer liegen in den Händen der jeweiligen privatwirtschaftlichen Anbieter.

Seit 2019 entstehen allerdings erste Ansätze zur Zusammenarbeit zwischen Anbietern und Wissenschaft wie etwa im Rahmen des Forschungsprojekts "Social Science One". Hier erhalten ausgewählte, unabhängige Forscherinnen und Forscher Zugang zu anonymisierten Daten. Zugleich zeigt etwa die im Jahr 2020 veröffentlichte Untersuchung eines interdisziplinären Forschungsteams mit dem Titel "How social network sites and other online intermediaries increase exposure to news": Menschen, die die untersuchten Intermediäre nutzen, kommen mit einer größeren Anzahl von Nachrichten in Berührung als solche, die diese Anwendungen nicht nutzen. Ob das auch eine größere Vielfalt der dargestellten Informationen bedeutet, ist bislang noch offen.

Auch wenn die These der Filterblasen umstritten ist, belegen viele Untersuchungen, dass der Wandel der öffentlichen Debatte wesentlich dadurch geprägt ist, dass die Öffentlichkeit zunehmend in kleinere Teilöffentlichkeiten zerfällt, was etwa der britische Soziologe David Beer erforschte. Aufgrund der Personalisierung stehen jeder und jedem Einzelnen unterschiedliche Informationen zur Verfügung. Eine Informationsgrundlage, die möglichst breite Bevölkerungskreise gemeinsam haben, ist damit immer weniger gegeben.

Vielmehr steht eine große Informationsvielfalt zur Verfügung, die ermöglicht, dass wir Informationen sowie Kommunikationspartnerinnen und -partner danach auswählen können, ob sie unserem Meinungsbild entsprechen. Wir müssen uns weniger häufig mit anderen Meinungsbildern auseinandersetzen, wenn wir das nicht möchten, und finden häufiger Bestätigungen unserer Meinung. Allerdings weisen andere Stimmen, wie beispielsweise die Medienwissenschaftlerin und Publizistikforscherin Birgit Stark, darauf hin, dass die aktuelle Datenlage noch nicht ausreicht, um hier zu einem fundierten Urteil mit einem breiten Geltungsanspruch zu kommen.

Ein weiteres Phänomen, das die öffentliche Debatte gegenwärtig beeinflusst, sind gezielte Desinformationen (Fake News) im Social Web. Durch die Möglichkeit aller, Inhalte zu veröffentlichen, gelangen zahlreiche Informationen an die Öffentlichkeit, die eine bestimmte Sachlage verkürzen, verzerren oder falsch darstellen. So entsteht ein ganz anderes Bild von einem Sachverhalt, als es eine geprüfte, ausgewogene Darstellung ermöglichen könnte. Die gezielte Desinformation erfolgt wissentlich und vor allem absichtlich. Das unterscheidet sie von einer Falschmeldung, die ohne bewusste Absicht erfolgt.

Zwar kam und kommt es auch in den klassischen Massenmedien zu Verzerrungen. Da sie sich jedoch an den Kriterien journalistischen Arbeitens messen lassen müssen, sind solche Abweichungen seltener und fallen in der Regel weniger drastisch aus. Zugleich sind massenmediale Inhalte für eine breitere Öffentlichkeit einsehbar, da der Zugang zu ihnen nicht für Einzelne personalisiert erfolgt und damit nachvollziehbarer bleibt. Demgegenüber gehen bewusste Verzerrungen im Social Web eher in den Informationsmassen und personalisierten Feeds unter.

Zahlreiche politische Akteure weltweit nutzen die Möglichkeiten des Social Webs zu gezielten Desinformationskampagnen, um ihre Absichten und Interessen durchzusetzen. Die Zahl dieser Kampagnen stieg von 2017 bis 2019 weltweit um 150 Prozent an, wie Forscherinnen und Forscher des Oxford Internet Institutes in ihrer 2020 veröffentlichten Studie "The Global Disinformation Order" feststellten.

Häufig beinhalten Desinformationskampagnen auch gezielte Diffamierungen anderer politischer Akteure. Ein Beispiel für ein solches Vorgehen ist der Wahlkampf von Donald Trump um die US-Präsidentschaft in den Jahren 2015 und 2016. Journalistische Berichte und wissenschaftliche Untersuchungen, wie beispielsweise die Studie "Partisanship, Propaganda, and Disinformation: Online Media and the 2016 U.S. Presidential Election" des Berkman Klein Centers aus dem Jahr 2017, belegen, dass dort verschiedene Akteure gezielt Desinformationen verbreiteten, um Trumps Position zu stärken. In ihre Kommunikationsstrategie bezogen sie auch die Diffamierung seiner Konkurrentin Hillary Clinton ein.

Ein anderes zentrales Phänomen der veränderten öffentlichen Debatte sind Interner Link: Online-Hassreden (Hate Speech): Aussagen im Social Web, die einzelne Personen oder Gruppen aufgrund äußerer Merkmale, ihrer politischen und gesellschaftlichen Einstellung oder aufgrund bestimmter Lebensformen beleidigen, verleumden, diskriminieren oder gar bedrohen. Acht Prozent der Befragten einer bundesweiten Studie des Instituts für Demokratie und Gesellschaft aus dem Jahr 2019 waren bereits persönlich von Online-Hassrede betroffen. Insbesondere jüngere Menschen (18- bis 24-Jährige) erleben sie mit 17 Prozent deutlich häufiger.

QuellentextTrolle

Der Begriff Troll hat sich im Netz etabliert und bezeichnet eine Person, die ausschließlich kommuniziert, um Diskussionen zu sabotieren und zu manipulieren und andere Gesprächsteilnehmer emotional zu provozieren. Trolle setzen zumeist auf Ad-hominem-Angriffe, das heißt, sie verweigern jede argumentative Auseinandersetzung, greifen Menschen aus dem gegnerischen Lager stattdessen auf der persönlichen Ebene an, um sie zu beleidigen, einzuschüchtern oder lächerlich und unglaubwürdig zu machen. Trolle ziehen wie eine digitale Landplage über Kommentarspalten oder Twitter-Diskussionen hinweg und wüten so lange, oft mit verschiedenen Konten parallel, bis jeder sinnvolle Wettstreit von Gedanken zerstört wird oder andere Personen sich zurückziehen.

Ein Gespräch mit Trollen ist in der Regel sinnlos, da ihr Motiv eben nicht in einem konstruktiven Meinungsaustausch liegt. Im Gegenteil, sie wollen verhindern, dass Menschen diskutieren und verschiedene Perspektiven in ihre Betrachtungen einbeziehen können. Politische Trolle versuchen, Diskussionen durch das sogenannte Derailing auf andere Themen zu lenken: Wenn beispielsweise eine Nachrichtenseite über rassistische Gewalttaten berichtet, tauchen erstaunlich schnell Kommentare auf, die massenhaft auf linke Gewalt hinweisen. Oder geht es in Diskussionen um die russische Einflussnahme auf den Wahlkampf in den USA, lenken Trolle vom Thema ab, indem sie auf tatsächliche oder angebliche westliche Propaganda verweisen.
[…] Sogar Aufrufe zur sexualisierten Gewalt dokumentieren die Forscherinnen und Forscher vom Institute for Strategic Dialogue [das in London ansässig ist und Desinformation und Propaganda in ganz Europa analysiert]. […] Es ist auffällig, wie oft sich solche Attacken gegen jüngere Frauen richten. Vergewaltigungsfantasien und sexistische Sprüche gehören zum festen Repertoire […].

Aktivisten in den USA bauen bereits seit Jahren eigene Online-Projekte und -Kanäle als sichere Rückzugsräume auf, um sich dort ungestört zu organisieren – und dann in die sozialen Netzwerke auszuschwärmen. Damit machen sie sich unabhängig von den großen Plattformen […].

[…] In der digitalen Öffentlichkeit – und hier findet mittlerweile ein wichtiger Teil der politischen Diskussionen statt – sind Troll-Attacken alltäglich und können dazu führen, dass sich Menschen aus Angst vor Beleidigungen und Drohungen gar nicht mehr trauen, ihre Meinung offen zu äußern. […]

Durch manipulierte öffentliche Debatten in einer toxischen Umgebung, durch Einschüchterung kommen viele Perspektiven gar nicht mehr vor. Aggressivität und Lautstärke bringen andere Stimmen zum Schweigen. Der Diskurs soll polarisiert werden. Das Ziel ist die Hegemonie in einer digitalen Öffentlichkeit, die mittlerweile sämtliche Bereiche des öffentlichen und privaten Lebens durchdringt. […]

Patrick Gensing leitet seit 2017 die Abteilung "ARD-faktenfinder", die er aufgebaut hat. Er lebt in Hamburg.
Patrick Gensing, "Ausschwärmen, um zu zerstören", in: Ders.: Fakten gegen Fake News oder Der Kampf um die Demokratie, © Duden 2019, Bibliographisches Institut GmbH, Berlin, S. 25–33; hier: 26 ff., 32 f.

Hassrede existiert nicht erst, seit es das Social Web gibt. Bereits zuvor wurden Menschen etwa auf Schulhöfen, in Bars, bei der Arbeit oder beim Einkaufen verbal ausgegrenzt und bedrängt. Mit dem Social Web verstärkt sich allerdings die Problematik: Denn dort sind Hasskommentare meist für eine größere Personenzahl und über den Moment ihrer Äußerung hinweg zugänglich. Eine unbedachte heftige Reaktion erfolgt zwar auch im direkten mündlichen Austausch, jedoch verläuft der Diskurs im Social Web häufig wesentlich enthemmter. Dies ist nicht auf die vermeintliche Anonymität zurückzuführen, denn Hate Speech findet auch unter Klarnamen statt. Vielmehr ist es online nicht notwendig, sich den Gefühlen und Reaktionen des Gegenübers direkt auszusetzen und unmittelbar Verantwortung für die eigenen Äußerungen zu übernehmen.

Begegnung mit Hate Speech im Internet. Landesanstalt für Medien NRW, "Hate-Speeech und Diskussionsbeteiligung im Internet", Befragungszeitraum 4.–12. Dezember 2018; www.medienanstalt-nrw.de/fileadmin/user_upload/lfm-nrw/Service/ Veranstaltungen_und_Preise/Ergebnisbericht_Hate_Speech_Sonderstudie_LFMNRW.pdf (© bpb)

Als Werkzeug gezielter Diffamierung und Desinformation bekommt Online-Hassrede zudem eine neue Dimension: Das Ziel ist, auf die öffentliche Meinung einzuwirken sowie bestimmte Personen und Personengruppen massiv einzuschüchtern und zu verunsichern. Dies kann das Meinungsklima zu einem Thema maßgeblich beeinflussen. Wie beispielsweise die Studie "Suspicious Election Campaign Activity on Facebook" der George Washington Universität von 2019 darlegt, spielen dabei zum Teil auch Interner Link: Social Bots  eine Rolle. Das sind computergesteuerte Profile, aber auch gefälschte Profile, die Personen anlegen, um massenhaft gezielte Desinformation und Online-Hassrede zu verbreiten.

QuellentextSocial Bots

[…] Social Bots sind Programme, die beispielsweise Twitter-Konten automatisiert steuern. Es handelt sich um virtuelle Roboter, die in sozialen Netzwerken aktiv sind und dort ein soziales Verhalten vortäuschen. Wie ausgefeilt sie programmiert sind, ist allerdings sehr unterschiedlich: Die Spannbreite reicht von simplen Codes, mit denen nur wenige Funktionen gesteuert werden, bis hin zu komplexen Kombinationen aus Befehlen und Reaktionen.
Ein Beispiel für einen simplen Twitter-Bot ist das Profil von Alt-Right Europe, das im Februar 2017 eingerichtet wird. In den folgenden zwei Jahren veröffentlicht Alt-Right Europe rund 60.000 Tweets. Als einen Hinweis auf eine automatisierte Steuerung setzen verschiedene Analysefachleute die Schwelle von mindestens 50 Tweets am Tag, diese Hürde nimmt der Twitter-Bot locker.

Schaut man sich die Inhalte an, fällt sofort auf: Das Konto verbreitet fast ausschließlich Inhalte anderer Seiten. Darunter finden sich Brexit-Meldungen des britischen Tabloid Daily Express sowie Artikel von rechtsradikalen Blogs wie Pl-news, Voice of Europe, Infowars oder Gates of Vienna. Auch die Videos bestimmter YouTube-Kanäle, unter anderem des britischen Aktivisten Tommy Robinson, twittert Alt-Right Europe automatisiert.

Eine Auswertung mit dem TooI Foller.me liefert weitere Hinweise darauf, dass es sich um einen Social Bot handelt: Demnach werden die Inhalte in 99 von 100 Beispielen mit dem Tool Feed2Tweet erzeugt, das heißt, sie werden von vorher festgelegten Seiten übernommen. Außerdem antwortet Alt-Right Europe fast nie auf andere Tweets. Und: Das Profil twittert rund um die Uhr, was ein wichtiges Indiz für automatisiertes Verhalten ist. Das Analyse-Tool Botometer kommt ebenfalls zu dem Ergebnis, dass mit hoher Wahrscheinlichkeit automatisiert getwittert wird. […]

Grundsätzlich stellt sich die Frage, ob automatisierte Konten tatsächlich über die Macht verfügen, politische Debatten im Internet und damit gar den Ausgang einer Wahl zu beeinflussen. Isoliert betrachtet, haben sie diese Macht sicher nicht, der Einsatz von Social Bots unterstützt und flankiert lediglich größere Kampagnen oder Konten, die als Scharniere fungieren. […]

Wie gefährlich also sind Social Bots? Wie ernst sollte man sie nehmen? [...] Letztendlich ist die Debatte über Social Bots eine Stellvertreterdiskussion: Moderne Technik wird für Propagandazwecke instrumentalisiert. So wie die Nationalsozialisten vor achtzig Jahren neue Massenmedien wie Radio und Film für sich instrumentalisierten, so missbrauchen heutzutage bestimmte Personen Twitter und Facebook, um Diskussionen zu manipulieren. Social Bots sind ein Symptom für politische Verwerfungen und sie verstärken diese Entwicklungen noch. Natürlich können Tools bei der Identifikation von Social Bots helfen, sie ersetzen aber weder die inhaltliche Analyse noch eine abschließende Bewertung. Auch lassen sich Problem und Problemlösung nicht auf die technische Ebene abschieben. Gesetze werden ebenfalls kaum weiterhelfen.

Gleiches gilt auch für das Erkennen und die Analyse von gezielten Falschmeldungen: Tools können anzeigen, welche Inhalte im Netz gerade besonders stark geteilt werden, sie können Indizien für Fake-Inhalte liefern, aber sie können weder die Relevanz einschätzen noch den Kontext erfassen oder einen Subtext sowie das größere Narrativ erkennen. Journalismus bleibt Kopf- und Handarbeit, der Kampf gegen Desinformation lässt sich nicht per Knopfdruck gewinnen, auch wenn viele Anbieter von Software das gerne behaupten.

Doch nicht nur die Möglichkeiten, Social Bots automatisiert zu identifizieren, sind beschränkt, auch die Fähigkeiten der Social Bots sind limitiert und sollten nicht überschätzt werden: Sie können bestimmte Inhalte verbreiten und Relevanz oder Zustimmung simulieren, zudem Stimmungsbilder manipulieren, indem sie zu einem Thema besonders viele Tweets absetzen. Sie können mit vorgegebenen Textbausteinen auf Anfragen oder Tweets reagieren – oder Freundinnen und Freunden zum Geburtstag gratulieren. Social Bots können aber weder selbst Themen setzen noch halbwegs sinnvoll auf Fragen antworten. Zwar agieren sie interaktiv, handeln deswegen aber noch lange nicht intelligent. Sie verbreiten vorgegebene Inhalte, flankieren einflussreiche Twitter-Konten und unterstützen vollkommen willenlos Kampagnen. […]

Patrick Gensing leitet seit 2017 die Abteilung "ARD-faktenfinder", die er aufgebaut hat. Er lebt in Hamburg.
Patrick Gensing, "Social Bots als Gefahr für die Demokratie", in: Ders.: Fakten gegen Fake News oder Der Kampf um die Demokratie, © Duden 2019, Bibliographisches Institut GmbH, Berlin, S. 71–80; hier 71 f., 74 ff.

Durch dieses Vorgehen erscheinen Akteure, die wie beschrieben gezielt manipulieren und ihre Botschaften streuen, bedeutsamer und mächtiger, als sie es möglicherweise tatsächlich sind. Entsprechende Kommunikationsstrategien sowie manipulierte Klick-, Teil- und Bewertungszahlen erwecken den Eindruck einer scheinbaren gesellschaftlichen Relevanz. Wenn Journalistinnen und Journalisten eine solche Botschaft aufgreifen, stärkt das wiederum deren vorgebliche Bedeutsamkeit und erweitert den Personenkreis, der sie wahrnimmt. Dies belegt zum Beispiel die Studie "The Rise of Germany’s AfD: A Social Media Analysis", die ein Forschungsteam der Technischen Universität München 2019 veröffentlichte.

Wissenschaftliche Betrachtungen diskutieren zudem die Bedeutung, die einzelnen Nutzerinnen und Nutzern in diesem Zusammenhang zukommt. So vertritt beispielsweise die Publikation "Meinungsbildung in der Netzöffentlichkeit" aus dem Jahr 2019 die These, dass eine Person, die online über eine hohe Reichweite verfügt, Themen und Thesen bedeutsamer erscheinen lassen kann, wenn sie diese etwa in sozialen Netzwerken öffentlich aufgreift. Im Kontext der Online-Kommunikation ist dann oft die Rede von Interner Link: Influencerinnen und Influencern, die einen Einfluss auf das Meinungsbild ihrer Zielgruppen ausüben können. Auch in klassischen Medien spielen bekannte Persönlichkeiten, ihre Einschätzungen und Meinungen eine Rolle. Online können sich jedoch Einzelne fernab massenmedialer Mechanismen Gehör verschaffen. Beispiele dafür sind der Blogger Rezo, der sich unter anderem auf Videoplattformen zu Politik und Gesellschaft äußert, oder Tarik Tesfu, der im Social Web zu gesellschaftlicher Vielfalt und Menschenrechten publiziert.

Die langfristigen Auswirkungen des beschriebenen Wandels sind noch nicht komplett absehbar. Der gesellschaftliche Diskurs dazu ist jedoch im Gange. Zugleich nehmen sich Politik und Justiz vermehrt dieser Themen an: auf Ebene der Länder, des Bundes und der Europäischen Union. Dabei spielt unter anderem die Forderung eine Rolle, Plattformen und deren Einsatz von algorithmischen Systemen stärker zu regulieren. Ein Ansatz zielt darauf ab, algorithmische Prozesse transparenter zu machen, um sie auf gesellschaftliche Normen, wie Gerechtigkeit, oder auf geltendes Recht, wie das auf Gleichbehandlung, prüfen zu können (siehe auch KapitelInterner Link: Handlungsspielräume und digitalethische Fragen). Zugleich entstehen Kooperationen zwischen Unternehmen und Wissenschaft wie das bereits erwähnte Projekt "Social Science One", um die Datenlage für Forschungszwecke zu verbessern und damit zu neuen Erkenntnissen zu gelangen. Sie sollen dabei helfen, den Wandel zu gestalten.

Jaana Müller-Brehm ist Sozialwissenschaftlerin und übernimmt beim iRights.Lab analytische, redaktionelle und koordinatorische Aufgaben in den Themenfeldern Öffentlichkeit, Demokratie, Menschenrechte, Gesellschaft und Bildung immer im Zusammenhang mit der Digitalisierung.

Philipp Otto ist Gründer und Direktor des Think Tank iRights.Lab und einer der führenden Digitalisierungsexperten in Deutschland. Er ist Jurist und war Visiting Researcher beim Berkman Center for Internet & Society an der Harvard University. Auch leitet er das Innovationsbüro Digitales Leben des BMFSFJ und verschiedene weitere hochrangige Bundesprojekte in anderen Häusern. Er hat eine Vielzahl an Büchern, Aufsätzen und strategischen Analysen an der Schnittstelle zwischen Recht, Technik, Gesellschaft und Politik im Kontext der Digitalisierung veröffentlicht.

Michael Puntschuh ist Sozialwissenschaftler und Projektkoordinator beim iRights.Lab. Zu seinen Arbeitsgebieten gehören Menschenrechte online, Governance des Cyberspace und Digitale Ethik sowie andere gesellschaftliche und rechtliche Fragen digitaler Technologien.