zurück 
9.5.2019

Diskussionsräume und Radikalisierungsprozesse in sozialen Medien

Soziale Medien können gerade im politischen Diskurs eine Bereicherung sein. Ihnen wird aber auch vorgeworfen, eine Plattform für Online-Hetze zu bieten, die zur Polarisierung der Gesellschaft beiträgt.

Menschen mit bereits vorhandenen extremen politischen Einstellungen sind häufiger in homogenen Echokammern zu finden, radikalisieren sich und wenden sich von anderen Meinungen ab. (© picture-alliance/dpa)


Wenn wir von den negativen Auswirkungen der “Digitalisierung“ sprechen, wird häufig auch die Angst vor Polarisierung und Radikalisierung thematisiert. In diesem Zusammenhang wird häufig der Begriff “alternative Medien“ diskutiert. Ganz grundsätzlich zeichnen sich alternative Medien durch eine Abweichung (=Alternative) von etwas anderem aus, auf das sie sich beziehen. Sie stellen sich bewusst in den Gegensatz zu einer “herrschenden“ Öffentlichkeit, um vernachlässigte oder unterdrückte Themen, Probleme oder soziale Gruppen der allgemeinen Wahrnehmung zugänglich zu machen. Der Begriff wird jedoch auch benutzt, wenn beispielsweise selbsternannte “ Verteidiger des Abendlandes“ die Medien als “Lügenpresse“ diffamieren, auf Webseiten trollen, somit Meinungsäußerungen stören und Diskussionen im Keim ersticken. Unter dem Sammelbegriff „alternative Medien“ werden daher auch Medien subsumiert, die das Qualitätskriterium der Ausgewogenheit für sich ablehnen und bewusst Nachrichten mit einer bestimmten politischen Stoßrichtung veröffentlichen. Im Englischen wird von“partisan media“ gesprochen.[1] Auch extremistische Gruppierungen nutzen in sozialen Medien eine verzerrte, “alternative“ Darstellung, um ihre Botschaften in den Diskurs einzubringen, mit dem Ziel, Radikalisierungsprozesse anzustoßen.[2]

Rechte Themen in den öffentlichen Diskurs einbringen

Wir beobachten online Veränderungen durch die neue Vielfalt öffentlicher Teilhabe – gerade zu Themen, über die selten gesprochen wird: Hier wandelt sich zum einen der partizipative Journalismus[3], zum anderen sind auch Blogger/-innen, kommentierende Internetnutzer/-innen oder Webseiten-Betreiber/-innen potenziell Teilnehmer/-innen an öffentlichen Diskursen.[4] Öffentlichkeiten können demnach beispielsweise durch unzählige Diskussionsforen, virtuelle Archive, Mailinglisten, Blogs, Posts in sozialen Medien, Kommentare, Videos oder eigene Webseiten entstehen (ebd.). Rechtspopulistische Parteien und ihre Politik sind in den westlichen Gesellschaften, wenn nicht auf der ganzen Welt, immer erfolgreicher geworden.[5] Beispiele für rechtspopulistische Parteien sind die AfD (Alternative für Deutschland), die FPÖ (Freiheitliche Partei Österreichs) oder die nationale Sammelbewegung RN in Frankreich (Rassemblement National, hervorgegangen aus dem Front National). Zu den rechtsextremen Gruppen zählen in Deutschland beispielsweise die Identitäre Bewegung oder autonome Nationalisten. Häufig sind es solche rechtspopulistischen Parteien oder sogar rechtsextreme Gruppen, die sich online als Alternative darstellen[6], und sich vehement gegen die “Leitmedien“ wenden, denen sie eine einseitige und verzerrte Themendarstellung unterstellen und Misstrauen gegen sie schüren wollen.[7]

Rechte, rechtspopulistische und rechtsextreme politische Akteure profitieren von einem Klima der Angst in der Gesellschaft, welches auch durch die Verknüpfung zwischen der jüngsten “Flüchtlingskrise“, Terrorismus und einer angeblichen Verbreitung des Islams in westlichen Gesellschaften hervorgerufen wird. Sie nutzen gezielt die Unsicherheit der Nutzer/-innen, um ihre radikalen Weltanschauungen[8] zu stärken. Vor allem im Internet werden Parolen, Botschaften und Aufrufe verbreitet und so unzensiert einem großen Massenpublikum zugänglich gemacht.

Diese Strategie geht mit Befürchtungen einher, dass sich Menschen in Echokammern gegenseitig ihre Einstellungen verstärken.[9] Die Idee geht zurück auf die Tatsache, dass Menschen tendenziell lieber mit andern Menschen in Beziehung treten, die ihnen bei einer Vielzahl von Merkmalen (z. B. die eigene politische Meinung oder die eigene ethnische Herkunft) ähnlich sind.[10] Während diese Annahme häufig in Studien nicht bestätigt werden kann, zeigt sich, dass Menschen mit bereits vorhandenen extremen politischen Einstellungen häufiger in homogenen Echokammern zu finden sind und sich stärker von anderen Meinungen abwenden [11]. Zudem überschätzen sie die Zustimmung in der breiten Bevölkerung und fühlen sich infolge stärker im Recht [12]. Eine solche Tendenz zeigt sich für Menschen mit gemäßigten politischen Einstellungen nicht. Darin verdeutlicht sich der „Teufelskreis“: Ist jemand bereits politisch extremer, kann sich diese Tendenz in homogenen Netzwerken weiter verfestigen. Ist jemand politisch gemäßigt eingestellt, hat er/sie auch häufiger Kontakt mit heterogenen Perspektiven und Meinungen.[13]

Eine Hinwendung nach rechts spiegelt sich auch in den kommunikativen Bemühungen und Diskursstrategien der populistischen Rechte wider, die versucht, die Grenzen der akzeptablen Sprache in öffentlichen Diskursen hin zu radikaleren Positionen und Sichtweisen zu verschieben[14] und diese somit zu “normalisieren“[15]. Beispielsweise werden NS-Vokabular oder Verschwörungsmythen zum Holocaust benutzt, um diese wieder in den öffentlichen Diskurs einzubringen[16]. Die Wirksamkeit einer solchen Normalisierungs-Strategie ist daher weniger auf der individuellen Ebene von Menschen zu sehen, die für rechtsradikale Agitation anfällig sind, sondern eher hinsichtlich der Debatte in der Gesellschaft. Sichtbar werden solche Diskurse auch durch die Sprache, die im Internet mit Bezug auf bestimmte Menschengruppen kursiert:

Hassrede (engl. Hate Speech) wird definiert als „der sprachliche Ausdruck von Hass gegen Personen oder Gruppen, insbesondere durch die Verwendung von Ausdrücken, die der Herabsetzung und Verunglimpfung von Bevölkerungsgruppen dienen“[17]. Schmitt [18] unterscheidet vier verschiedene Gründe, um Hassrede im Internet zu verbreiten. Diese Art der gruppenbezogenen Ausgrenzung und Herabwürdigung wird eingesetzt, 1. um andere auszugrenzen, 2. um andere einzuschüchtern (aufgrund von eigenen Gefühlen wie Wut oder einem Bedrohungserleben), 3. um Macht zu demonstrieren, also Dominanz und Deutungshoheit in einem Diskurs deutlich zu machen[19] und 4. natürlich auch aus Spaß oder Nervenkitzel.

Hate Speech als Strategie, um den gesellschaftlichen Konsens zu brechen

Obwohl die Feststellung nicht neu ist, dass Online-Medien aufgrund von negativen Kommunikationspraktiken wie Trolling (emotionale Provokationen[20]) oder Flaming (unspezifische Beschimpfungen[21]) nicht den allgemeinen Höflichkeitsnormen entsprechen[22], scheint das Risiko einer Konfrontation mit eher unzivilen Online-Diskursen[23] gerade in den sozialen Medien zuzunehmen.[24]

Ein Fünftel der Facebook-Nutzer/innen (21%) berichten sogar, persönlich mit Hassrede-Material im Internet in Berührung gekommen zu sein.[25] Für Gruppen, die bevorzugt als Ziele von Hassrede ausgewählt werden, wie Mitglieder von stigmatisierten Gruppen (also Politiker/-innen, Aktivist/-innen oder Journalist/-innen[26]), können diese Zahlen wesentlich höher liegen: Im Jahr 2016 gaben beispielsweise 42% der deutschen Journalist/-innen an, persönlich angegriffen worden zu sein.[27] Es ist daher nicht verwunderlich, dass auch mehr als die Hälfte (67%) der Deutschen, die älter als 14 sind, von Erfahrungen mit “Hasskommentaren“ berichten.[28] Zudem berichtet etwa die Hälfte der Jugendlichen zwischen 14 und 19 in Deutschland von Berührungspunkte mit extremistischer Online-Propaganda[29] Bewusst werden sowohl rechts- und linksextremistische sowie religiös-extremistische Inhalte wahrgenommen. Diese Studie zeigt jedoch auch, dass Kontakt mit Extremismus über vielfältige Quellen möglich ist: Neben sozialen Medien berichten Jugendliche auch, über das Fernsehen, Zeitungen/Zeitschriften und Videoplattformen auf extremistische Inhalte gestoßen zu sein. Das direkt soziale Umfeld erscheint weniger bedeutsam.

Online-Hetze kann zur Polarisierung der Gesellschaft beitragen

Der kürzlich veröffentlichte Bericht der Online Civil Courage Initiative[30] argumentiert, dass Online-Hass zu gesellschaftlicher Polarisierung und extremistischer Radikalisierung beitragen kann. Diesem Zusammenhang liegt zugrunde, dass Radikalisierungs- und Polarisierungsprozesse häufig mit einer fortlaufenden Einstellungsänderung (hin zum Extremen, beispielsweise bei der politischen Einstellung) beginnen. Wie kann nun Online-Hetze solche Prozesse begünstigen? Negative Kommentare unter Nachrichtenbeiträgen können zum Beispiel die journalistische Qualität, Vertrauenswürdigkeit und Überzeugungskraft des Beitrages reduzieren.[31]Darüber hinaus änderten Leser/-innen von Online-Nachrichten häufiger ihre Meinung, wenn Leser/-innen-Kommentare sich gegen die Position des Nachrichtenartikels richteten.[32] Im laufenden Strom von Online-Nachrichten in Newsfeeds ist zudem möglich, dass einzelne Aussagen wahrgenommen, aber nicht weiter hinterfragt werden. So können Hasskommentare die Einstellungen gegenüber den verunglimpften Gruppen verändern und Nutzer/-innen dazu anregen, sich selbst negativer über die angesprochene Gruppe zu äußern[33]. Gleichzeitig können Hasskommentare auch direkt denjenigen schaden, die angegriffen werden:

Hassrede löst bei ihren Opfern negative emotionale Reaktionen aus[34] und fördert Vorurteile und Aggressionen gegenüber der Gruppe, die die Hassrede verbreitet[35], [36]. Selbst lediglich Zeuge von Hassrede zu sein, kann das soziale Vertrauen in andere Menschen und in die Gesellschaft als Ganzes verringern.[37] Eine politische Polarisierung kann somit damit einhergehen, dass die unterschiedlichen Gruppen sich immer mehr voneinander entfernen, nicht mehr miteinander in Austausch treten und ihre „Wir gegen die“-Mentalität verstärken.

Versuche, Online-Hass entgegenzuwirken, wie durch die Verabschiedung des Netzwerkdurchsetzungsgesetzes (NetzDG) [38], stehen in der Kritik, das Recht auf freie Meinungsäußerung zu verringern[39]. Auch präventive Maßnahmen bringen Probleme mit sich, weil sie selbst die Aufmerksamkeit von Hassrednern auf sich ziehen[40] oder Medienprodukte der (rechten) alternativen Medien durch Empfehlungsalgorithmen direkt mit ihnen verknüpft werden[41]. Es kann jedoch ebenso festgehalten werden, dass viele rechte Gruppen nicht komplett am öffentlichen Diskurs “vorbeileben“. Eine Analyse der Posts auf AfD-nahen Facebook-Seiten zeigte, dass dort häufig alternative Medienquellen benutzt wurden. Zwar wurden zahlreiche kleinere Quellen geteilt, die sich explizit gegen die massenmediale Berichterstattung (und häufig damit verbundene Tendenz zur politischen Mitte) ausrichteten.

Gemessen an ihrer Reichweite waren Quellen, die sich bekanntlich gegen die AfD ausrichteten, unterrepräsentiert, wie beispielsweise Webseiten der Sender des öffentlich-rechtlichen Rundfunks oder die Webseite von bild.de. Hingegen waren drei Quellen, die häufig in der Debatte um alternative Medien erwähnt werden, auffällig häufig vertreten: Die Webseite der rechtskonservativen Wochenschrift Junge Freiheit, die deutsche Ausgabe der kontrovers diskutierten Epoch Times und die Nachrichtenseite des Kopp Verlags, welcher auf das Verlegen von Büchern mit verschwörungstheoretischem Gedankengut spezialisiert ist. Vor allem von Nutzer/-innen-Seite (nicht so sehr hingegen von Parteiangehörigen) wurden solche alternativen Quellen in den Diskurs eingebracht. Inhalte etablierter traditionell-kommerzieller Nachrichten-Webseiten wie Focus.de und Welt.de wurden jedoch über alle Nutzer/-innengruppen hinweg am häufigsten geteilt.[42]

Abschließend kann daher festgehalten werden, dass alternativen Medienquellen das Potenzial zugesprochen wird,
1. einen immer extremer geführten Diskurs und seine häufig rechtspopulistischen Positionen salonfähig zu machen und
2. über thematische Anknüpfungspunkte auch verschwörungstheoretisches Gedankengut oder Fake News in den öffentlichen Diskurs einzubringen.[43]
Creative Commons License

Dieser Text ist unter der Creative Commons Lizenz veröffentlicht. by-nc-nd/3.0/ Der Name des Autors/Rechteinhabers soll wie folgt genannt werden: by-nc-nd/3.0/
Autor: Diana Rieger für bpb.de
Urheberrechtliche Angaben zu Bildern / Grafiken / Videos finden sich direkt bei den Abbildungen.

Fußnoten

1.
Schweiger, W. (2017): Der (des)informierte Bürger im Netz. Wiesbaden: Springer Fachmedien.
2.
Neumann, K. & Baugut, P. (2017):„In der Szene bist du wie in Trance. Da kommt nichts an dich heran.“ Entwicklung eines Modells zur Bescheribung von Medieneinflüssen in rechtsextremen Radikalisierungsprozessen. Studies in Communication & Media, 6(1), 39-70.
3.
Zum partizipativen Journalismus oder Bürgerjournalismus siehe www.bpb.de/gesellschaft/medien-und-sport/medienpolitik/171586/glossar?p=9
4.
Engesser & Wimmer, 2009; Töpfl & Piwoni, 2015
5.
Pisoiu, D. & Ahmed, R. (2015): Aus der Angst Kapitel schlagen: der Aufstieg rechtspopulistischer Bewegungen in Westeuropa. OSZE-Jahrbuch, 181-194.
6.
siehe http://www.bpb.de/politik/extremismus/rechtsextremismus/239267/gegenoeffentlichkeit-von-rechtsaussen
7.
Der Begriff “ „Lügenpresse“ gewann zuletzt vor allem durch die Bewegung “Pegida“ wieder an Bedeutung (siehe Denner, N. & Peter, C. (2017): Der Begriff Lügenpresse in deutschen Tageszeitungen. Publizistik, 62(3), 273-297.). Er drückt ein Misstrauen gegenüber den etablierten Medien aus, welches vor allem durch eine rechtspopulistische Rhetorik geschürt wird. Zwar kritisieren auch andere Gruppierungen die Haltungen vieler massenmedialen Publika; der rechtspopulistischen Rhetorik wird diese Kritik jedoch absolutistisch vorgetragen, ohne Gegenargumente oder Widerspruch zu dulden.
8.
Bornschier, S. (2018): Globalization, cleavages and the radical right. In: J. Rydgren, The Oxford Handbook of the radical right (S. 212). Oxford: Oxford University Press.
9.
Unter dem Begriff “Echokammer“ ‘ versteht man virtuelle Räume im Internet (z. B. das eigene soziale Netzwerk), in denen Menschen vorrangig mit Informationen und Meinungen konfrontiert sind, die den eigenen Einstellungen und Sichtweisen entsprechen (Sunstein, C. (2007): Republic.com 2.0. Princeton, NJ: Princeton University Press.). Das Fehlen von “anderen“ (z. B. widersprechenden) Meinungen oder Sichtweisen soll – der Theorie nach – dazu führen, dass bestimmte Ansichten echoartig bestärkt werden (ohne dass alternative Perspektiven vorkommen). Die meisten Mediennutzer/-innen werden aber sehr unterschiedliche Medien konsumieren – sie lesen Zeitung, scrollen durch Facebook und schauen Fernsehen –, eine solche Vielfalt des Medienkonsums schränkt die Gültigkeit von Echokammern ein (siehe Dubois, E. & Blank, G. (2018): The Echo Chamber Is Overstated: The Moderating Effect of Political Interest and Diverse Media. Information Communication and Society 0 (0), 1-17.). Lediglich wenn nur noch “Szene-Medien“ konsumiert werden und andere Quellen aktiv vermieden werden, kann von einer tatsächlichen Echokammer gesprochen werden. Der Anteil an Personen, auf die ein solches Mediennutzungsverhalten zutrifft, ist aber vermutlich gering.
10.
Morey, A. C., Eveland, W. P., Jr., & Hutchens, M. J. (2012): The “who” matters: Types of interpersonal relationships and avoidance of political disagreement. Political. Communication, 29, 86-103. doi:10.1080/10584609.2011.641070
11.
Bright, J. (2017): Explaining the emergence of echo chambers on social media: the role of ideology and extremism, 1-19.
12.
Wojcieszak, M. (2008): False consensus goes online: Impact of ideologically homogeneous groups on false consensus. Public Opinion Quarterly, 72(4), 781-791.
13.
Stark, B., Magin, M., & Jürgens, P. (2017). Ganz meine Meinung?: Informationsintermediäre und Meinungsbildung – Eine Mehrmethodenstudie am Beispiel von Facebook. LfM-Dokumentation (Band 55). Düsseldorf: Landesanstalt für Medien Nordrhein-Westfalen (LfM).
14.
Cammaerts, C. (2018): The Circulation of Anti-Austerity Protests. Palgrave Macmillan.
15.
Wodak, R. (2018): Vom Rand in die Mitte – „Schamlose Normalisierung“. Politische Vierteljahresschrift, 59, 323-335.; Schwarzenegger, C. & Wagner, A. (2018): Can it be hate if it is fun? Discursive ensembles of hatred and laughter in extreme right satire on Facebook. Studies in Communication and Media, 7(4), 473-498.
16.
Rieger, D. & Schneider, J. (2019): Zwischen Chemtrails, Reptiloiden und #pizzagate: Verschwörungstheorien aus kommunikationswissenschaftlicher Perspektive. In: Landesarbeitsgemeinschaft Mobile Jugendarbeit/Streetwork Baden-Württemberg e. V. & Jugendstiftung Baden-Württemberg, Mythen, Ideologien, und Theorien. Verschwörungsglaube in Zeiten von Social Media (S. 13-20). Vaihingen an der Enz: Printmedien Karl-Heinz Sprenger.
17.
Meibauer, J. (2013): Hassrede/Hate Speech. Interdisziplinäre Beiträge zu einer aktuellen Diskussion. Gießen., S. 1. Die Broschüre “Hate Speech Hass im Netz“, herausgegeben von der Landesanstalt für Medien Nordrhein-Westfalen (LfM) sowie der Arbeitsgemeinschaft Kinder und Jugendschutz NRW in Zusammenarbeit mit Klicksafe, gibt einen Überblick über konkrete Formen und Beispiele für konkrete sprachliche Muster von Online-Hate Speech (http://publikationen.medienanstalt-nrw.de/index.php?view=product_detail&product_id=442).
18.
Schmitt, J.B. (2017): Online-Hate Speech: Definition und Verbreitungsmotivation aus psychologischer Perspektive. In: K. Kaspar, L. Gräßer & A. Riffi (Hrsg.), Online Hate Speech: Perspektiven auf eine neue Form des Hasses (S. 52-56). Schriftenreihe zur digitalen Gesellschaft NRW. Marl: kopaed verlagsgmbh.
19.
Gerade bezüglich des Aspektes der Deutungshoheit zeigt sich, dass Hate Speech ein Mechanismus zum Aufbau der alternativen Medien sein kann. Christoph Neuberger (2018) spricht in seinem Aufsatz “Meinungsmacht im Internet aus kommunikationswissenschaftlicher Perspektive“ davon, dass sich die Meinungsmacht im Internet umverteilt. Dadurch, dass die traditionellen Massenmedien ihr Monopol als Gatekeeper verlieren und ihre Aktivitäten in nicht-publizistische und politisch irrelevante Bereiche verlagern, verlieren sie auch an Meinungsmacht. Andere nicht-publizistische Anbieter gewinnen dadurch an politischer Relevanz.
20.
Vgl. Buckles, E.E., Trapnell, P.D. & Paulhus, D.L. (2014): Trolls just want to have fun. Personality and Individual Differences, 67, 97-102.
21.
Vgl. O’Sullivan, P.B. & Flanagin, A.J. (2003): Reconceptualizing ‘flaming’ and other problematic messages. New Media & Society, 5(1), 69-94.
22.
Vgl. Papacharissi, Z. (2004): Democracy online: civility, politeness, and the democratic potential of online political discussion groups. New Media & Society, 6(2), 259-283.
23.
Vgl. Coe, K., Kenski, K & Rains, S.A. (2014) : Online and Uncivil? Patterns and Determinants of Incivility in Newspaper Website Comments. Journal of Communication, 64(4), 658-679.; Kaakinen, M., Oksanen, A. & Räsänen, P. (2018): Did the risk of exposure to online hate increase after teh November 2015 Paris attacks? A group relations approach. Computers in Human Behavior, 78, 90-97.; Muddiman, A. (2017): News Values, Cognitive Biases, and Partisan Incivility in Comment Sections. Journal of Communication, 67(4), 586-609.
24.
In Deutschland berichtete Jugendschutz.net, dass die Zahl der Verstöße gegen das Jugendschutzgesetz von rund 6.000 registrierten Verstößen im Jahr 2015 auf über 7.500 im Jahr 2017 gestiegen ist. Der Anteil von Verstößen aufgrund extremistischer Inhalte hat sich in dieser Zeit mehr als verdoppelt (siehe Schindler, F., Glaser, S., Herzog, H. & Özkilic, M. (2015): Jugendschutz im Internet. Ergebnisse der Recherchen und Kontrollen. Bericht 2015. Jugendschutz.net.; Schindler, F., Glaser, S., Herzog, H. & Özkilic, M. (2017): 2017 Bericht. Jugendschutz im Internet. Risiken und Handlungsbedarf. Jugendschutz.net. Abgerufen vonhttps://www.jugendschutz.net/fileadmin/download/pdf/bericht2017.pdf).
25.
Oksanen, A., Hawdon, J., Holkeri, E., Näsi, M. & Räsänen, P. (2014): Exposure to Online Hate Among Young Social Media Users. Sociological Studies of Children & Youth, 18, 253-273.
26.
Vgl. Dieckmann, J., Geschke, D. & Braune, I. (2018): Diskriminierung und ihre Auswirkungen für Betroffene und die Gesellschaft. Jena: Institut für Demokratie und Gesellschaft.
27.
Preuß, M., Tetzlaff, F. & Zick, A. (2017): Hass im Arbeitsalltag Medienschaffender – „Publizieren wird zur Mutprobe“ (IKG Forschungsbericht). Berlin: Mediendienst Integration.
28.
Landesanstalt für Medien NRW (2018): Ergebnisbericht Hassrede. Abgerufen von https://www.medienanstalt-nrw.de/fileadmin/user_upload/lfm-nrw/Foerderung/Forschung/Dateien_Forschung/forsaHate_Speech_2018_Ergebnisbericht_LFM_NRW.PDF
29.
Reinemann, C., Nienierza, A., Fawzi, N., Riesmeyer, C. & Neumann, K. (2019): Jugend – Medien – Extremismus. Wiesbaden: Springer VS.
30.
Baldauf, J., Ebner, J. & Guhl, J. (2018): Hassrede und Radikalisierung im Netz. Online Civil Courage Initiative. London: Institute for Strategic Dialogue. Abgerufen von www.isdglobal.org/wp-content/uploads/2018/09/ISD-NetzDG-Report-German-FINAL-26.9.18.pdf
31.
von Sikorski C., Hänelt M. (2016): (Re)Framing the News: Die Effekte gerahmter Online-Kommentare in der Skandalberichterstattung – ein theoretisches Prozessmodell und eine experimentelle Überprüfung. In: M. Ludwig, T. Schierl & C. von Sikorski (Hrsg.), Mediated Scandals: Gründe, Genese und Folgeeffekte von medialer Skandalberichterstattung, S. 210-232. Köln: Herbert von Halem Verlag.
32.
Lee, E.-J., & Jang, Y. J. (2010): What do others’ reactions to news on internet portal sites tell us? Effects of presentation format and readers’ need for cognition on reality perception. Communication Research, 37, 825-846.
33.
Huseh, M., Yogeeswaran, K. & Malinen, S. (2015): „Leave your comment below“: Can biased online comments influence our own prejudicial attitudes and behaviors? Human Communication Research, 41(4), 557-576.
34.
Leets, L. (2002): Experiencing Hate Speech: Perceptions and Responses to Anti-Semitism and Antigay Speech. Journal of Social Issues, 58(2), 341-361.
35.
Hsueh, Yogeeswaran & Malinen, 2015;Rösner, L., Winter, S. & Krämer, N.C. (2016): Dangerous minds? Effects of uncivil online comments on aggressive cognitions, emotions, and behavior. Computers in Human Behavior, 58, 461-470.; Soral, W., Bilewicz, M. & Winiewski, M. (2018): Exposure to hate speech increases prejudice through desensitization. Aggressive Behavior, 44(2), 136-146.
36.
Die Dokumentation “Lösch dich! So organisiert ist der Hate im Netz“ von Anders, Stegemann, Heidmeier und Baumann-Gibbon (2018) gibt beispielsweise Einblicke in das Netzwerk von Reconquista Germanica. Hierbei handelt es sich um ein Netzwerk, in welchem Rechtsextreme gezielt Online-Attacken auf politische Gegner, Medien und Institutionen koordinieren. Es zeigt sich eine enge Verflechtung zwischen Trolling und Hate Speech: Über die App Discord organisieren sich Mitglieder der Reconquista Germanica und geben gezielte Befehle zu Inhalt und Personen, die angegangen werden sollen. So können aus relativ harmlosen Trollen auch schnell organisierte Hater werden: Um Teil des stark hierarchischen Netzwerkes zu sein, gibt es einen mehrstufigen Bewerbungsprozess. Mehrere, teilweise hochrangige AfD-Mitglieder waren nachweisbar innerhalb des Reconquista Germanica Netzwerkes tätig. Auch Mitglieder der Identitären Bewegung konnten unter den 6.000 Aktivisten ausfindig gemacht werden (Stegemann, P., Musyal, S., Kulozik, D., Wandt, L., Pohl, M. & Gensing, P. (2018): AfD-Funktionär an Troll-Attacken beteiligt. [WWW document]. URL https://faktenfinder.tagesschau.de/inland/manipulation-wahlkampf-103.html, zuletzt abgerufen am 21.07.2018.). So schaffen es Trolle, die als Einzelpersonen einen begrenzten Wirkkreis hätten, diesen zu vergrößern und sich gemeinsam eine stärkere Stimme zu verschaffen. Die Grenzen zwischen bloßem Trollen zu Unterhaltungszwecken und dem gezielten Einsatz von Hate Speech zur politischen Einflussnahme werden dadurch unscharf.
37.
Näsi, M., Räsänen, P., Hawdon, J., Holkeri, E., & Oksanen, A. (2015): Exposure to online hate material and social trust among Finnish youth. Information Technology & People, 28(3), 607-622.
38.
Netz-Durchführungsgesetzes (NetzDG) 2017, siehe www.bpb.de/dialog/netzdebatte/262660/debatte-netzwerkdurchsetzungsgesetz-netzdg
39.
George, S. (2016): Approaches for Countering Violent Extremism at Home and Abroad. The Annals of the American Academy of Political and Social Science 668(1), 94-101.
40.
Vgl. Ernst, J., Schmitt, J. C., Rieger, D., Beier, A. K., Vorderer, P., Bente, G., & Roth, H-J. (2017): Hate beneath the counter speech? A qualitative content analysis of user comments on YouTube related to counter speech videos. Journal for Deradicalization, 10, 1-49.
41.
Vgl. Schmitt, J. B., Rieger, D., Rutkowski, O., & Ernst, J. (2018): Counter-messages as prevention or promotion of extremism?! The potential role of YouTube recommendation algorithms. Journal of Communication, 68(4), 780-808.
42.
Bachl, M. (2018) : (Alternative) media sources in AfD-centered Facebook discussions. Studies in Communication and Media, 2, 256-270.
43.
Schmitt et al., 2018

Diana Rieger

Diana Rieger

Prof. Dr. Diana Rieger ist am Institut für Kommunikationswissenschaft und Medienforschung der Ludwig-Maximilians-Universität München tätig.


Nach oben © Bundeszentrale für politische Bildung Zur klassischen Website von bpb.de wechseln