30 Jahre Mauerfall Mehr erfahren
zurück 
2.5.2019

Social Bots: Zwischen Phänomen und Phantom

Social Bots sind Computerprogramme, die auf Social Media Plattformen eingesetzt werden, um unterhaltsamen Nonsens, kostengünstig Werbung, aber auch politische Inhalte zu verbreiten. Wenn unklar ist, welches politische Ziel ein Social Bot verfolgt, wird die Angst vor einer Einflussnahme Unbekannter auf politische Prozesse geschürt. Die davon ausgehende Gefahr lässt sich relativieren: Sie ist vor allem der Mensch hinter den Social Bots.

Das Programm Eliza von Joseph Weizenbaum sollte die Möglichkeiten der Kommunikation zwishcen einem Menschen und einem Computer über natürliche Sprache aufzeigen. (© Public Domain)


Social Bots werden Computerprogramme genannt, die auf Social Media Plattformen wie beispielsweise Twitter aktiv sind: Sie erstellen oder verbreiten (teil-)automatisiert Inhalte, interagieren mit Menschen über diese Plattformen und verfolgen teilweise das Ziel, menschliches Verhalten zu imitieren oder andere Menschen zu beeinflussen.[1] Einerseits sind sie ein altes Phänomen, das in der Informatik seit Jahrzehnten untersucht wird, andererseits können sie aber auch als neues Phantom betrachtet werden, da Social Media Plattformen ein ideales Habitat für sie bieten, um sie unter anderem auch in politischen Diskursen einzusetzen.

Social Bots als altes Phänomen



Bots steht als Kurzform für Software-Roboter, die in der Informatik seit Jahrzehnten kreiert und untersucht werden.[2] Einer der ersten Bots, der chatten konnte, war Joseph Weizenbaum’s ELIZA.[3] ELIZA imitierte die Kommunikation eines Psychiaters, der nach Rogers praktizierte, was bedeutet, dass sie das vom Menschen Gesagte wiederholte und ihn ermutigte, viel von sich preiszugeben. Obwohl diese Art der Kommunikation den Turing-Test zur Unterscheidung von Mensch und Maschine vermutlich nicht bestanden hätte, befürchteten Psychiater damals von Bots ersetzt zu werden.[4] Seit Beginn also zeichnete sich ihr Potential ab – und das trotz ihrer geringen Reichweite und Überzeugungskraft. Seit dem Aufkommen des Internets und insbesondere von Social Media Plattformen lassen sich Bots einsetzen und unzählige Menschen mit ihrer Kommunikation über Landesgrenzen hinweg erreichen. Social Media Plattformen wie Twitter dienen ihnen als ideales Habitat dafür: Über die öffentlich zugänglichen Schnittstellen dieser Plattform lassen sich Social Bots darauf implementieren. Dafür reichen basale Programmierkenntnisse und es lässt sich dank öffentlich zugänglicher Anleitungen und Vorlagen relativ einfach bewerkstelligen. Je nach Programmierung, können sie voll- oder teilautomatisiert auf Plattformen agieren.

Profitorientierte Unternehmen setzen beispielsweise Chatbots ein, um Kundenanfragen automatisiert zu beantworten. Auf Wikipedia werden tausende von Social Bots eingesetzt, um Einträge automatisiert zu bearbeiten. Auf Twitter werden sie auch genutzt, um täglich populäre Zitate zu verschicken, unterhaltsame Tweets automatisiert zu erstellen oder automatisiert Tweets mit bestimmten Hashtags weiterzuverbreiten. Sie werden auch dazu eingesetzt, um Beiträge vollautomatisiert zu retweeten, sofern ein gewisser Hashtag vorkommt, oder sie folgen gewissen Twitternutzenden, um ihre Popularität größer erscheinen zu lassen als sie tatsächlich ist. Social Bots in ihrer Gesamtheit sind Teil der Entwicklung zu mehr automatisierten Prozessen im Internet im Allgemeinen, aber auch auf Social Media Plattformen im Spezifischen.

Social Bots als neues Phantom



Da sie Computerprogramme sind, schränkt sich ihr Handeln nicht nur auf ein Themenfeld ein; sie lassen sich für verschiedenste Aufgaben in verschiedensten Bereichen einsetzen. Während sie als Chatbots deklariert Kunden über ihre Aufgabe und ihr Wesen im Klaren lassen und nicht als gefährlich betrachtet werden, können sie aber auch als Menschen getarnt in politische Diskurse eingreifen, wodurch sie die öffentliche Meinung verzerren und manipulativ in demokratische Prozesse wirken könnten.

Denn: Social Bots müssen nicht als solche gekennzeichnet werden. Wird ein Porträt eines Menschen für das Profilbild des Social Bots und ein (menschlicher) Name verwendet, sind sie aufgrund ihrer Präsenz potentiell nicht als Social Bot zu entlarven. In ihrer Kommunikation werden sie von Menschen als glaubwürdig, interaktiv und kompetent angesehen[5] und können täuschend menschlich wirken.[6] Wenn also Social Bots koordiniert politische Aussagen verbreiten, kann es so scheinen, als ob das von ihnen verbreitete Anliegen ein authentisches und relevantes ist, das in der Politik berücksichtigt werden sollte. Das schürt Angst und lässt Social Bots wie ein Phantom wirken: Sind die Social Media Nutzenden, mit denen ich mich über Politik unterhalte oder die einen politischen Beitrag mit tausenden von "Likes" populär lassen werden, Menschen oder Social Bots?

Nicht nur machen Social Bots 9 bis 15 Prozent aller Twitternutzenden aus,[7] sie wurden auch in politischen Diskursen weltweit entdeckt:[8] Beispielsweise haben sie rund 20 Prozent des Traffics vor den US-Wahlen 2016 generiert[9], haben in der Brexit-Debatte die "Leave EU"-Kampagne unterstützt[10], wurden mit Fehlinformationen in Verbindung gebracht[11] oder haben in der Bundestagswahl 2017 politische Parteien populärer wirken lassen, als sie sind, und automatisiert Tweets verbreitet.[12] Diese Zahlen und die mitklingenden, potenziellen Gefahren für die Demokratie müssen jedoch in den entsprechenden Kontext gesetzt werden.

Social Bots als aktuelle Herausforderung



Erstens ist es methodisch sehr schwierig, Social Bots zu entdecken. Sofern sie sich nicht selbst als solche bezeichnen, bleibt stets eine Ungewissheit, ob es sich um einen Bot oder um einen Menschen handelt. Um sie dennoch zu identifizieren, werden ganz unterschiedliche Verfahren angewendet: Von Ansätzen, die einen einzelnen Indikator wie die Aktivität eines Accounts evaluiert bis hin zu Methoden, die über tausend Variablen berücksichtigen. Während die einen Methoden sehr transparent das Vorgehen beschreiben, sind andere weniger transparent, was das methodische Dilemma in diesem Forschungsgebiet widerspiegelt: Methoden mit erhöhter Transparenz spielen den Bot-Entwicklenden in die Hände, wodurch sie Social Bots so programmieren können, dass sie die Bot-entdeckenden Verfahren umgehen können. Verringerte Transparenz aber führt dazu, dass unklar ist, ob die Methode Bots zu entdecken vermag und wenn ja, was für Typen von Bots. Das führt zu unterschiedlichen Ergebnissen zur Anzahl und zum Einfluss von Social Bots auf politische Prozesse auf Social Media Plattformen. Es bleibt also ein Katz- und Maus-Spiel zwischen denjenigen, die Bots kreieren, und denjenigen, die sie zu entdecken versuchen.

Zweitens sollten Social Bots nicht als autonome Akteure betrachtet werden. Hinter jedem Social Bot steckt ein Mensch. Sie können einen Social Bot vollautomatisiert – oder nur halbautomatisiert agieren lassen. Wenn ein Mensch viel Einfluss auf die Aktionen eines oder mehrerer Bots übernimmt, kann deren Verhalten nur schwer von koordinierten Aktionen echter Menschen unterschieden werden. Das betrifft das gesamte Spektrum von digitalem "Astroturfing":[13] Wenn authentische oder gekaufte Sympathisanten, Menschen mit mehreren Nutzerkonten (sogenannten "Sockpuppets") oder Mitarbeitende von "Click Farms" engagiert werden – oder eben Social Bots eingesetzt werden, um Social Media Beiträge oder Akteure populärer erscheinen zu lassen, als dass sie eigentlich sind, lässt sich das nur sehr schwer voneinander unterscheiden. Zentral bleiben also (auch) die Fragen, wer welche Ziele verfolgt und wie die Menschen dahinter entdeckt werden könnten.

Drittens sind Social Bots auf Plattformen aktiv, worauf sie weniger Personen erreichen als sie beispielsweise über traditionelle Medienanbieter wie Zeitungen oder das Fernsehen würden. Einerseits bedeutet dies, dass ihr Einfluss auf politische Prozesse lediglich ihr Netzwerk betrifft, andererseits vor allem Social Media Nutzende. Wenn Meinungsführer aus dem Journalismus oder der Politik jedoch Beiträge von Social Bots weiterverbreiten oder die Anzahl "Likes" manipuliert von Social Bots als öffentliche Meinung fehlinterpretieren, könnten Social Bots dennoch eine breitere Schicht der Bevölkerung erreichen und politische Prozesse manipulieren. Es benötigt also auch eine gesellschaftliche Sensibilisierung für die Problematik.

Social Bots als altes Phänomen werden weiterhin Teil der digitalen Welt bleiben, da sie nicht per se eine Gefahr darstellen und deshalb auch nicht per se zu verbieten sind. Als Computerprogramme, die teil- oder vollautomatisiert Beiträge absetzen oder weiterverbreiten werden sie weiterhin aktiv bleiben; als Kunstform, Werbung oder Hilfe. Imitieren sie Menschen und versuchen zentrale politische Prozesse zu manipulieren, könnten sie auch zur Gefahr werden. Sie zu entdecken bleibt jedoch eine Herausforderung, weshalb ihr tatsächlicher Einfluss schwierig einzuschätzen ist – sie wirken vor allem wie ein Phantom. Das fordert WissenschaftlerInnen, Social Media Betreibende sowie die Nutzenden selbst: In der Wissenschaft ist man gefordert, Methoden zu entwickeln, die Social Bots und die Akteure dahinter zu entdecken vermögen. Die Nutzenden mit hoher Reichweite wie beispielsweise JournalistInnen und PolitikerInnen von Social Media Plattformen sollten überlegt Beiträge unklarer Herkunft oder mit zweifelhaftem Inhalt teilen – oder eben nicht weiterverbreiten. Schliesslich sind auch die Betreibenden der Plattformen aufgerufen, den manipulativen Einsatz von Social Bots zu verhindern. PolitikerInnen können hierbei unterstützend wirken, indem sie beispielsweise Social Media Plattformen weiterhin kritisch beobachten, bei Bedarf deren Regulierung fordern und selbst vorbildlich auf den Plattformen agieren.
Creative Commons License

Dieser Text ist unter der Creative Commons Lizenz "CC BY-NC-ND 3.0 DE - Namensnennung - Nicht-kommerziell - Keine Bearbeitung 3.0 Deutschland" veröffentlicht. Autor/-in: Tobias R. Keller für bpb.de

Sie dürfen den Text unter Nennung der Lizenz CC BY-NC-ND 3.0 DE und des/der Autors/-in teilen.
Urheberrechtliche Angaben zu Bildern / Grafiken / Videos finden sich direkt bei den Abbildungen.

Fußnoten

1.
Vgl. Ferrara, E. et al.: The rise of social bots. In: Communications of the ACM, 7/2016, S. 96-104.
2.
Vgl. Subrahmanian, V.S. et al.: The DARPA Twitter Bot Challenge. In: Computer, 6/2016, S. 38-46.
3.
Weizenbaum, J.: Computer power and human reason: From judgment to calculation. San Francisco 1976.
4.
Vgl. Saygin, A. P./Cicekli, I./Akman, V.: Turing Test: 50 Years Later. In: Minds and Machines, 4/2000, S. 463-518.
5.
Vgl. Edwards, S. et al.: Is that a bot running the social media feed? Testing the differences in perceptions of communication quality for a human agent and a bot agent on Twitter. In: Computers in Human Behavior, 33, 2014, S. 72-376.
6.
Vgl. Everett, R. M./Nurse, J. R. C./Erola, A.: The anatomy of online deception. In: Ossowski, S. (Hg.): The 31st Annual ACM Symposium,, 2016, S. 1115–1120.
7.
Vgl. Varol, O. et al.: Online Human-Bot Interactions: Detection, Estimation, and Characterization. In: Proceedings of the Eleventh International AAAI Conference on Web and Social Media, S. 280–289 (PDF).
8.
l. Woolley, S. C./Howard, P. N. (Hg.): Computational propaganda: Political parties, politicians, and political manipulation on social media. New York 2019.
9.
Vgl. Bessi, A./Ferrara, E.: Social Bots Distort the 2016 US Presidential Election Online Discussion. In: First Monday, 11/2016.
10.
Vgl. Bastos, M. T./Mercea, D.: The Brexit Botnet and User-Generated Hyperpartisan News. In: Social Science Computer Review, 1/2019, S. 38-54.
11.
Shao, C. et al.: The spread of low-credibility content by social bots. In: Nature Communications, 1/2018, Nr. 4787.
12.
Shao, C. et al.: The spread of low-credibility content by social bots. In: Nature Communications, 1/2018, Nr. 4787.
13.
Vgl. Kovic, M. et al.: Digital astroturfing in politics: Definition, typology and countermeasures. In: Studies in Communication Sciences, 1/2018, S. 69-85.

Tobias R. Keller

Tobias R. Keller

ist Assistent am Institut für Kommunikationswissenschaft und Medienforschung der Universität Zürich.


Nach oben © Bundeszentrale für politische Bildung Zur klassischen Website von bpb.de wechseln