Meine Merkliste Geteilte Merkliste PDF oder EPUB erstellen

Bürger oder Bots? Automatisierte Kommunikation im Bundestagswahlkampf 2017 | Digitale Desinformation | bpb.de

Digitale Desinformation Was ist Digitale Desinformation Desinformation: Vom Kalten Krieg zum Informationszeitalter Von der Aufmerksamkeits-Ökonomie zur desinformierten Gesellschaft? Fake News als aktuelle Desinformation Propaganda 4.0 von Europas Rechtspopulisten Halbwahrheiten. Zu einem Instrument der Desinformation Desinformation und der Krieg in der Ukraine Russlands Kommunikationsstrategien im Krieg gegen die Ukraine Prorussische Narrative in Indiens Sozialen Medien Nachrichten aus dem Kreml Desinformation und Bundestagswahl 2021 Bundestagswahl und digitale Desinformation IV Bundestagswahl und digitale Desinformation III Bundestagswahl und digitale Desinformation II Das Narrativ vom Wahlbetrug Hybride Bedrohung als internationale Herausforderung Selbstverpflichtungen für einen fairen digitalen Wahlkampf Transparenz als Mittel gegen die digitale Verbreitung von Desinformation Bundestagswahl und digitale Desinformation I Bundestagswahl und digitale Desinformation V Ordnungsbildung in Online-Kommunikationsräumen Meinungsbildung- und Informationsvermittlung Microtargeting und Manipulation: Von Cambridge Analytica zur Europawahl Frankreichs Gesetzgebung gegen die Verbreitung von Falschnachrichten Bürger oder Bots? Automatisierte Kommunikation im Bundestagswahlkampf 2017 Die Medienlogik der Informationsintermediäre und ihre Bedeutung für Meinungsbildung Desinformation - Der globale Blick Folge 1 – Der Hack Folge 2 – Die Briefwahl Folge 3 – Die Operation Folge 4 – Der Ernstfall Folge 5 – Die Netzwerke Folge 6 – Das Experiment Folge 7 – Der Ausweg Folge 8 – Der Lichtblick Impressum Digitale Desinformation und Soziale Medien Wie sollen Plattformen mit Falschmeldungen verfahren? Über die "Messengerisierung" der Politik Neue Herausforderung "Dark Social"? Social Bots: Zwischen Phänomen und Phantom Relevanz und Regulierung von Social Bots Wie umgehen mit Digitaler Desinformation? Lügen im Netz: Sich davor schützen und andere aufklären Kritische Medienkompetenz Strategien der Europäischen Union gegen Desinformation Möglichkeiten und Grenzen von Faktenchecks Schutzmaßnahmen der Internetkonzerne Presseschau zur Europawahl 2019: Digitale Desinformation und Fake News Redaktion

Bürger oder Bots? Automatisierte Kommunikation im Bundestagswahlkampf 2017

Ulrike Klinger

/ 7 Minuten zu lesen

Das Thema "Social Bots" beschäftigte vor der Wahl 2017 die politische Öffentlichkeit. Eine empirische Untersuchung demonstriert den Umfang des Phänomens bei Twitter: Bei den Followern von deutschen Parteien spielen Bots jedenfalls keine relevante Rolle

Umkämpfte Soziale Medien - im Umfeld der Bundestagswahl 2017 wurde darüber gestritten, welchen Einfluss Bots bei der Kommunikation der Parteien hatten? (© AP)

Social Bots sind Profile in sozialen Netzwerken, die sich als Menschen ausgeben, aber teilweise oder ganz automatisiert und algorithmisch kontrolliert agieren. Bots agieren also nicht autonom, sondern letztlich stehen hinter jedem Bot Menschen oder Organisationen, die mit Hilfe dieser automatisierten Accounts Inhalte schneller und weiter verbreiten und dadurch Popularität sowie Relevanz künstlich erzeugen oder zumindest vortäuschen können. Das gilt nicht nur, aber auch für Desinformationskampagnen. Ein zentrales Merkmal ist, dass sich Social Bots tarnen und es selbst für Experten sehr schwierig ist, sie als solche zu identifizieren. Das unterscheidet sie von Chatbots, die als Assistenzprogramme im Kundendienst oder in Messenger Diensten nützlich sind und von eher harmlosen offensichtlichen Bots.

In Wahlkämpfen und anderen politische Kampagnen können Social Bots problematische Effekte haben. Erstens simulieren sie Popularität und Relevanz dadurch, dass einzelne Parteien oder Kandidaten mehr "Follower" haben, die aber nicht Bürger, Wähler, oder Parteimitglieder sind, sondern Maschinen. Zweitens vergrößern sie künstlich die Reichweite politischer Botschaften und Themen, weil die Algorithmen der Social Media Plattformen Engagement belohnen, also Botschaften sichtbarer machen, wenn Nutzer (egal ob Mensch oder Bots) mit ihnen interagieren, sie liken, teilen oder kommentieren. Drittens zeigen agentenbasierte Netzwerksimulationen, dass in bestimmten Konstellationen schon zwei bis vier Prozent Bots in einem Diskurs ausreichen, um das Meinungsklima zu drehen. Das bedeutet nicht, dass Menschen wegen Bots ihre Meinung oder politische Einstellung ändern, aber dass sie eine unzutreffende Vorstellung davon bekommen, welche Themen für relevant erachtet und welche Meinungen weit verbreitet sowie mehrheitsfähig sind. So entstehen zum Bespiel laute Minderheiten.

Es ist also kein Wunder, dass dieses Thema bereits vor der Bundestagswahl 2017 kontrovers diskutiert wurde. Zahlreiche Studien hatten bereits belegt, dass Social Bots in den Wahlkampagnen der US Präsidentschaftswahl 2016, vor dem Brexit-Referendum, vor den französischen Präsidentschaftswahlen im Frühjahr 2017 und in anderen Fällen aktiv waren. Im Oktober 2016, ein Jahr vor der Wahl, kündigte die Externer Link: AfD an, "selbstverständlich" Bots einsetzen zu wollen: "Gerade für junge Parteien wie unsere sind Social-Media-Tools wichtige Instrumente, um unsere Positionen unter den Wählern zu verbreiten." Alle anderen Parteien lehnten dies hingegen ab, und auch die AfD machte einige Tage später einen Rückzieher mit der Erklärung, nun doch keine Bots im Wahlkampf nutzen zu wollen. Dabei ist die Haltung der Parteien hier zwar wichtig, aber nicht zentral: Social Bots sind sehr einfache Programme, man kann sie käuflich erwerben oder mit geringen Programmierkenntnissen selbst erstellen. Im Grunde kann fast jeder Akteur Social Bots in Kampagnen losschicken, nicht nur die Parteien.

Wie man Bots identifizieren kann

Vor dem Hintergrund, dass Social Bots nun einmal existieren, bereits aktiv in anderen Wahlkampagnen involviert waren und eine ganz neue Akteursform der politischen Kommunikation darstellen, stellt sich nun die Frage, ob sie auch in der Bundestagswahl 2017 eine Rolle gespielt haben. Wir werden dazu aktive und passive Bots vergleichen und danach fragen, wie viele Bots wir unter den Twitter-Followern der deutschen Parteien vor und während des Wahlkampfs finden. Weil bislang unklar ist, wie viele Bots zu viele Bots sind, vergleichen wir zwei Zeitpunkte, um einen eventuellen Anstieg des Bot-Anteils sichtbar zu machen. Eine andere Variante des Zugangs wäre es, die Beteiligung von Bots an wahlrelevanten Twitter-Hashtags zu untersuchen – dann könnten wir aber nur die aktiven, nicht aber die passiven Bots erfassen. Dabei hat Woolley gezeigt, dass in Demokratien vor allem passive Bots unterwegs sind, die die Followerzahlen künstlich aufbauschen, während in autokratischen und semi-demokratischen Staaten eher aktive Bots eingesetzt werden, unter anderem mit dem Ziel, die politische Opposition zu demobilisieren.

Will man Social Bots untersuchen, muss man zunächst auf Nutzerdaten der sozialen Netzwerke zugreifen, in unserem Falle Twitter. Das ist über eine Datenschnittstelle, eine sogenannte API möglich, oder über Datenhändler. Der Zugang zu Daten der sozialen Netzwerke ist nur sehr eingeschränkt möglich, so dass es von außerhalb der Unternehmen viel schwieriger ist, öffentliche Kommunikation in sozialen Netzwerken zu analysieren oder Bots zu identifizieren. Tatsächlich argumentierte Twitters "Head of Site Integrity", Externer Link: Yael Roth, dass niemand außer Twitter selbst die nicht-öffentlichen Nutzerdaten einsehen könne, so dass nur Twitter selbst Bots mit Sicherheit identifizieren könne. Der eingeschränkte Datenzugang bedeutet letztlich auch, dass eine zentrale Funktion von Öffentlichkeit derzeit beschnitten ist: die Selbst-Beobachtung der Gesellschaft.

Für unsere Studie haben wir, soweit verfügbar, die Daten aller Twitter-Follower der wichtigsten deutschen Parteien im Wahlkampf heruntergeladen: 1,2 Millionen Follower im Februar 2017 und 1,6 Millionen Follower im September 2017. In den Metadaten der Follower sehen wir, ob die Accounts aktiv oder inaktiv sind, das heißt ob sie in den drei Monaten vor der Datenerhebung Tweets oder Retweets gesendet, etwas kommentiert oder als Like markiert haben. Noch bevor wir überprüfen, wie viele Bots darunter sind, fallen zwei bemerkenswerte Muster ins Auge: Zum einen variierte der Anteil der aktiven Follower stark. So war der Anteil der aktiven Follower der AfD deutlich höher als bei den anderen Parteien (im September 2017 26% vs. durchschnittlich 15%). Zum anderen zeigten die Follower der AfD eine Vernetzungsstruktur, die von den anderen Parteien deutlich abweicht. Fast die Hälfte der AfD Follower (45%) folgen ausschließlich der AfD, während die Follower der anderen Parteien ganz überwiegend (87%) mehreren Parteien, auch über das ideologische Spektrum hinweg folgen.

Zur Identifikation von Bots gibt es ganz verschiedene Ansätze. Hier nutzen wir ein Instrument, das von Informatikern an der University of Indiana entwickelt wurde, das "Botometer". Wie andere Methoden handelt es sich um kein perfektes Instrument, aber es bietet doch einige Vorteile: Es analysiert 1150 Merkmale der Kategorien Vernetzung, Tweet-Verhalten, Inhalt und Sprache, Sentiment und zeitliche Sequenzierung der Tweets. Botometer ist über eine Webseite zugänglich, um einzelne Accounts zu überprüfen sowie über eine API, so dass auch automatisierte Analysen größerer Datensätze möglich sind. Ende 2018 erreichten Botometer 250.000 Anfragen pro Tag und es wurde bereits erfolgreich in zahleichen Studien verwendet, zum Beispiel des PEW Research Centers in den USA. Botometer basiert auf Algorithmen, die mithilfe von Datensets trainiert wurden – das bedeutet, Botometer findet nur Bots, die ähnliche Charakteristika aufweisen wie Bots, die bereits vorher in anderen Datensätzen und mit anderen Methoden entdeckt wurden.

Damit Botometer einschätzen kann, ob es sich bei einem Account um einen Menschen oder einen Bot handelt, sind die Metadaten der Accounts wichtig. Wenn die Privatsphäre-Einstellungen eines Accounts restriktiv auf "privat" gesetzt sind, hat Botometer keinen Zugriff auf die Inhalte und kann keine vollständige Analyse durchführen. Auch Accounts die bereits schon wieder gelöscht wurden oder überhaupt gar keine Inhalte getweetet hatten, kann Botometer nicht analysieren. Insgesamt basieren die Ergebnisse unserer Studie auf ungefähr der Hälfte der Twitter-Follower der Parteien (638.674 Follower im Februar 2017 und 838.026 Follower im September 2017), was ganz überwiegend (80% der nicht-analysierbaren Fälle) an leeren Timelines liegt, also Followern, die noch nie irgendeinen Tweet oder Retweet gesendet hatten.

Einsatz von Social-Bots bei Parteien im Vergleich Februar und September 2017 (Ulrike Klinger) Lizenz: cc by-nc-nd/3.0/de/

Aktive Social-Bots der Parteien Februar und September 2017 (Ulrike Klinger) Lizenz: cc by-nc-nd/3.0/de/

Bots im Bundestagswahlkampf

Im Ergebnis kann man feststellen, dass im Bundestagswahlkampf 2017 etwa 10 Prozent Social Bots unter den Followern der deutschen Parteien waren. Das waren aber ganz überwiegend passive Bots, denn nur 1,4 Prozent der Bots haben überhaupt Inhalte verbreitet. Die Zahl der Social Bots insgesamt ist im Vergleich zum Februar 2017 leicht angestiegen (von etwa 7 auf 10 Prozent), wobei aber die Zahl der aktiven Bots leicht gesunken ist (von etwa 2 auf 1,4 Prozent). Alle Parteien hatten in ähnlichem Ausmaß Social Bots unter ihren Followern. Unter den AfD-Followern findet sich zwar der geringste Bot-Anteil, dafür sind darunter mehr aktive Bots. Schaut man sich die Inhalte an, die diese Bots gesendet haben wird aber klar, dass sie kaum an wahlrelevanten Themendynamiken, die die Bundestagswahl 2017 betreffen, beteiligt waren. Dies bedeutet nicht, dass sie im Bundestagswahlkampf keine Rolle gespielt hätten – denn wir haben hier nur die Twitter-Follower der Parteien untersucht. Möglicherweise ergibt sich ein anderes Bild, wenn wir die Beteiligung von Bots an Hashtags und thematischen Diskursen im Wahlkampf anschauen.

Social Bots sind zweifellos ein aus demokratie- und diskurstheoretischer Sicht spannendes Phänomen über das wir bislang noch sehr respektive zu wenig wissen. Sie sind keinesfalls per se und in jedem Fall schädlich, haben aber durchaus disruptives Potential für die Meinungsbildung in sozialen Netzwerken. Weil sie präsent sind, zumindest potentiell auch an politischen Diskursen teilnehmen und das Meinungsklima beeinflussen können, brauchen wir mehr Studien und bessere Instrumente, sie zu finden und ihre Auswirkungen analysieren zu können.

Fussnoten

Fußnoten

  1. Vgl. Ross, B. et al.: Are social bots a real threat? An agent-based model of the spiral of silence to analyse the impact of manipulative actors in social networks. In: European Journal of Information Systems, 2019, S. 1-19.

  2. Vgl. Bessi, A./Ferrara, E.: Social Bots Distort the 2016 US Presidential Election Online Discussion. In: First Monday, 11/2016.

  3. Vgl. Howard, P. N./Kollanyi, B.: Bots, #StrongerIn, and #Brexit: Computational Propaganda during the UK-EU Referendum. Working Paper 2016.

  4. Vgl. Ferrara, E.: Disinformation and social bot operations in the run up to the 2017 French presidential election. In: First Monday, 8/2017.

  5. Vgl. z.B. Hegelich, S./Janetzko, D.: Are Social Bots on Twitter Political Actors? Empirical Evidence from a Ukrainian Social Botnet. In: Proceedings of the Tenth International AAAI Conference on Web and Social Media 2016, S. 579-582; Forelle, M. C. et al.: Political Bots and the Manipulation of Public Opinion in Venezuela, 2015 (Externer Link: PDF).

  6. Dieser Beitrag basiert auf Keller, T. R./Klinger, U.: Social Bots in Election Campaigns: Theoretical, Empirical, and Methodological Implications. Political Communication, 1/2019, S. 171-189.

  7. Vgl. Woolley, S. C.: Automating power: Social bot interference in global politics. First Monday, 4/2016 (Externer Link: PDF).

  8. Siehe auch Sängerlaub, A.: Der blinde Fleck digitaler Öffentlichkeiten. Stiftung Neue Verantwortung, Berlin 2019 (Externer Link: PDF).

  9. Ausführlich dazu Yang, K.-C. et al.: Arming the public with artificial intelligence to counter social bots. In: Human Behavior & Emerging Technologies. 1/2019, S. 48-61.

Lizenz

Dieser Text ist unter der Creative Commons Lizenz "CC BY-NC-ND 3.0 DE - Namensnennung - Nicht-kommerziell - Keine Bearbeitung 3.0 Deutschland" veröffentlicht. Autor/-in: Ulrike Klinger für bpb.de

Sie dürfen den Text unter Nennung der Lizenz CC BY-NC-ND 3.0 DE und des/der Autors/-in teilen.
Urheberrechtliche Angaben zu Bildern / Grafiken / Videos finden sich direkt bei den Abbildungen.
Sie wollen einen Inhalt von bpb.de nutzen?

Weitere Inhalte

ist Professorin für Digitale Kommunikation an der FU Berlin und leitet die Forschungsgruppe "Nachrichten, Kampagnen und die Rationalität öffentlicher Diskurse" am Weizenbaum Institut für die vernetze Gesellschaft in Berlin. Sie ist Kommunikationswissenschaftlerin, forschte und lehrte an der Universität Zürich, der Zeppelin Universität Friedrichshafen, der Goethe Universität Frankfurt und der University of California in Santa Barbara.)