Hate Speech (Hassrede) in sozialen Medien bezeichnet symbolische Angriffe auf digitalen Plattformen wie Instagram, Facebook, X (ehemals Twitter), TikTok und YouTube, die sich gezielt gegen Personen und Gruppen aufgrund ihrer Identität richten.
Der Begriff Hate Speech stammt aus den 1980er-Jahren. Ursprünglich wurde dieser von Juraprofessorinnen und -professoren aus der Critical Race Theory geprägt, um Hassrede auf dem Universitätscampus und in der öffentlichen Kommunikation zu erfassen und rechtlich zu ahnden.[1], [2]
Mit der zunehmenden Verbreitung sozialer Medien in den 2000er-Jahren hat sich die Verbreitung und Wahrnehmung von Hassrede massiv verändert. Die Plattformen senkten die Zugangsbarrieren zur öffentlichen Meinungsäußerung[3] und begünstigten damit die Verbreitung diskriminierender und radikalisierender Inhalte.
Der Begriff Hate Speech wurde in der Öffentlichkeit populär, jedoch häufig fälschlicherweise als Synonym für allgemeinen digitalen Hass und beleidigende Inhalte verwendet.[4] Dies hat zu Verwirrung geführt, da nicht alle darunter subsumierten Inhalte Hate Speech darstellen. Auch erschwert die Ausweitung des Begriffs auf alle Formen digitaler Gewalt eine gezielte Bekämpfung und Regulierung der eigentlichen Hassrede.[5] Außerdem trägt die Gleichsetzung von Online Hate Speech mit digitaler Gewalt dazu bei, Diskriminierung und Machtasymmetrien als Wurzeln des Problems auszublenden.[6]
Viele pluralistisch-demokratische Gesellschaften, darunter auch Deutschland mit dem Netzwerkdurchsetzungsgesetz (NetzDG), haben rechtliche Regelungen auf den Weg gebracht, um nutzergenerierte Inhalte in sozialen Medien zu regulieren und bestehende Vorschriften auch digital durchzusetzen. Die Einführung solcher Regelungen hat die alte Debatte um Meinungsfreiheit und Zensur neu entfacht. Während der Schutz vor Hate Speech verstärkt wird, besteht gleichzeitig die Sorge vor möglichen Einschränkungen der Meinungsfreiheit.
Damit rückt die Frage in den Mittelpunkt, was genau als Hate Speech zu identifizieren ist. Trotz moderner Technologien zur Inhaltsanalyse fehlt eine einheitliche Definition von Hate Speech, die von Forschung und Rechtsprechung gleichermaßen verwendet werden kann. Forschende aus den Computer Social Sciences arbeiten an Lösungen zur Identifikation, jedoch ohne klaren Konsens.
Die Vereinten Nationen haben im Jahr 2020 einen Plan zur Bekämpfung von Hate Speech veröffentlicht, der häufig als Orientierungshilfe herangezogen wird. Die UNO definiert darin Hate Speech als „jede Form der Kommunikation, sei es schriftlich, mündlich, visuell oder durch Verhalten, die Menschen aufgrund eines Identitätsfaktors wie Phänotyp, Geschlecht, sexuelle Orientierung, Herkunft, Religion usw. beleidigt und/oder angreift“[7].
Diese Definition verdeutlicht, dass Hassrede nicht auf Beleidigungen und Pöbeleien in Onlinediskussionen reduziert werden kann. Vielmehr ist Hate Speech eine Form strategischer Kommunikation, die darauf abzielt, Personen oder Gruppen aufgrund dessen anzugreifen, was sie sind und nicht etwa aufgrund dessen, was sie beruflich tun. Dies unterscheidet Hate Speech in sozialen Medien von anderen Formen digitaler Gewalt.
Vergleichbarkeit mit analogen Phänomenen
Hate Speech in Face-to-Face-Situationen bezieht sich zumeist auf identitätsbezogene Beleidigungen und Beschimpfungen (hasserfüllte Rede (Hateful Speech)) als auf hassanstiftende Rede (Hatred-Inciting Speech), deren juristisches Pendant in Deutschland als Volksverhetzung justiziabel ist.
Hate Speech in den Massenmedien beruht wiederum seltener auf Beschimpfungen und nimmt eher die Form von Streitfragen oder Kontroversen an, wie z. B. Debatten über die Gleichwertigkeit von Menschen aufgrund ihrer Herkunft, Religion, Geschlecht, Hautfarbe etc. Prominente Beispiele hierfür sind durch Oriana Fallaci in Italien oder die von Thilo Sarrazin in Deutschland angestoßenen Polemiken gegen muslimische Migrantinnen und Migranten.
Soziale Medien wiederum bieten zum einen eine Bühne für Angriffe sowie beleidigende und anstößige Äußerungen, darunter fremdenfeindliche, rassistische, sexistische, islamophobe, antisemitische Beschimpfungen oder beleidigende Äußerungen (hasserfüllte Rede). Zum anderen dienen sie auch als Plattformen, um Hass, Diskriminierung und Verachtung gegen solche Personen und Gruppen zu schüren (hassanstiftende Rede).
Anders als bei Face-to-Face-Situationen ist Hate Speech in den sozialen Medien weder orts- noch zeitgebunden. Anders als bei den Massenmedien zirkulieren diese Inhalte im Netz weiter und können jederzeit wieder aktiviert werden (ubiquitäre Verfügbarkeit). Soziale Medien verändern auch die Sprache der Hassbotschaften, z. B. durch GIFs, Memes und Emojis.[8] Die digitalen Plattformen bieten zudem Möglichkeiten zur Interaktion mit den Hassbotschaften in Form von Likes, dem Teilen der Inhalte und dem Verfassen von Kommentaren sowie dem Hashtagging. Das erhöht die Komplexität der Identifikation und die Erfassung von Hassbotschaften, die in der digitalen Umgebung nicht zwingend aus leicht zu identifizierbaren Symbolen wie Hakenkreuzen oder rassistischen Schimpfwörtern bestehen müssen (Verschleierung).
Solche Interaktionen führen wiederum dazu, dass Nutzende mit weiteren Inhalten und Akteurinnen/Akteuren in Kontakt kommen, indem die Plattformen ähnliche Inhalte und Nutzende empfehlen. Auf diese Weise ermöglichen die sozialen Medien es ihren Nutzenden, sich um diese Inhalte herum zu vernetzen (Vernetzung) und vereinfachen die Möglichkeiten der Mobilisierung erheblich.[9], [10]
Diese Veränderungen zeigen einen grundlegenden Unterschied zwischen analoger Hassrede und Online Hate Speech: Während Ersteres ein soziales Problem darstellt, ist Letzteres ein soziotechnisches Problem. Online Hate Speech ist nicht nur das Ergebnis von Handlungen und Präferenzen der Nutzenden, sondern wird auch dadurch beeinflusst, was die Plattformen zulassen oder nicht zulassen, welche Formate sie anbieten und welchen Inhalten sie mehr Sichtbarkeit verleihen.[11] Dies hat Auswirkungen auf die Regulierung von Inhalten: Anders als bei analoger Hassrede liegt die Verantwortung für Hate Speech in sozialen Medien nicht mehr allein beim Staat. Stattdessen legen die Plattformen selbst fest, was sie als Hate Speech definieren und welche Inhalte sie verbannen.[12]
Gesellschaftliche Relevanz
Hate Speech hat physische und psychische Folgen für die Betroffenen. Empirische Studien zeigen, dass angegriffene Personen häufiger rauchen, vermehrt an Depressionen leiden und höhere Suizidraten aufweisen.[13]
Hate Speech in sozialen Medien erhöht zudem die Exposition gegenüber solchen Inhalten erheblich, insbesondere bei Jugendlichen: 79 Prozent der Internetnutzenden in Deutschland haben schon einmal Hasskommentare gestoßen. Besonders betroffen sind die 14- bis 25-Jährigen.[14] Je häufiger Nutzende einer Hate Speech ausgesetzt sind, desto unsensibler werden sie gegenüber solchen Inhalten und desto mehr Vorurteile entwickeln sie gegenüber denjenigen, die zur Zielscheibe von Hate Speech werden.[15]
Auch mit Blick auf das Funktionieren pluralistisch-demokratischer Gesellschaften sind die Folgen gravierend: So sät Hate Speech Misstrauen und Feindseligkeit zwischen gesellschaftlichen Gruppen und führt zu Verdrossenheit in politischen Deliberationsprozessen. Außerdem kann Hassrede physische, offene Gewalt gegen Gruppen anstiften, legitimieren und/oder koordinieren. So ist unstrittig, dass Hate Speech in sozialen Medien immer wieder im Zusammenhang mit ethnischen Konflikten und sogar Genoziden wie dem in Myanmar 2018 auftaucht, sei es als Ursache, als Begleitphänomen oder als Indikator für eine Eskalation.[16], [17], [18], [19], [20]
Diese gesellschaftliche Entwicklung hat in jüngster Zeit Behörden und Politik alarmiert und erhöht den Druck auf digitale Plattformen, die soziale Medien betreiben, hier aktiv zu werden. Hate Speech zählt daher aktuell zu den zentralen Streitpunkten, wenn es um die Regulierung der Plattformen geht.
Weiterführende Links und Literatur
Empfohlene Lektüre:
- Schneiders, P. (2022). Hate Speech auf Online-Plattformen. UFITA Archiv für Medienrecht und Medienwissenschaft, 85(2), 269–333.
- Sponholz, L. (2021). Hass mit likes: Hate Speech als Kommunikationsform in den Social Media. In: Hate Speech. Multidisziplinäre Analysen und Handlungsoptionen: Theoretische und empirische Annäherungen an ein interdisziplinäres Phänomen, 15–37. https://doi.org/10.1007/978-3-658-31793-5_2
- Strippel, C. et al. (2023). Challenges and perspectives of hate speech research. https://doi.org/10.48541/dcr.v12.0
Quellen
- Sponholz, L. (2020). Der Begriff „Hate Speech“ in der deutschsprachigen Forschung: eine empirische Begriffsanalyse. In: SWS-Rundschau 60(1), 43–65.
- Vilar-Lluch, S. (2023). Understanding and appraising ‘hate speech’. In: Journal of Language Aggression and Conflict, 11(2), 279–306.
- Engesser, S. et al. (2017). Populism and social media: How politicians spread a fragmented ideology. In: Information, Communication & Society 20(8), 1109–1126.
- Schmidt, A./Wiegand, M. (2017). A Survey on hHate Speech Detection using Natural Language Processing. In: Proceedings of the Fifth International Workshop on Natural ILanguage processing for Social Media, 1–10.
- Sponholz, L. (2020). Der Begriff „Hate Speech“ in der deutschsprachigen Forschung: eine empirische Begriffsanalyse. In: SWS-Rundschau 60(1), 43–65.
- Matamoros-Fernández, A./Farkas, J. (2021). Racism, Hate Speech, and Social Media: A Systematic Review and Critique. In: Television & New Media 22(2), 205–224.
- United Nations (2020) United Nations strategy and plan of action on Hatespeech: Detailed Guidance on Implementation for United Nations Field Presences
- Al-Rawi, A. (2022). Hashtagged trolling and emojified hate against Muslims on social media. In: Religions 13(6), 52.
- Sponholz, L. (2019). »Hate Speech in Sozialen Medien: Motor der Eskalation?. In: Friese, H./Nolden, M./Schreiter, M. (Hg.). Rassismus im Alltag. Theoretische und empirische Perspektiven nach Chemnitz. Bielefeld, 158–178.
- Bennett, W. L./Segerberg, A. (2012). The Logic of Connective Action: Digital Media and the Personalization of Contentious Politics. In: Information, Communication & Society 15(5), 739–768.
- Gillespie, T. (2022). Do not recommend? Reduction as a form of content moderation. In: Social Media + Society 8(3).
- Land, M. K./Wilson, R. A. (2020). Hate speech on social media: Content moderation in context. In: Connecticut Law Review 52, 1029–1076.
- Sponholz, L. (2018). Hate Speech in den Massenmedien: Theoretische Grundlagen und empirische Umsetzung. Springer VS.
- Hate Speech Forsa-Studie 2023.
- Soral, W./Bilewicz, M./Winiewski, M. (2018). Exposure to hate speech increases prejudice through desensitization. In: Aggressive behavior 44(2), 136–146.
- Müller, K./Schwarz, C. (2021). Fanning the Flames of Hate: Social Media and Hate Crime. In: Journal of the European Economic Association 19(4), 2131–2167.
- Fink, C. (2018). Dangerous sSpeech, Anti-Muslim vViolence, and Facebook in Myanmar. In: Journal of International Affairs 71(1.5), 43–52.
- Chekol, M. A./Moges, M. A./Nigatu, B. A. (2023). Social media hate speech in the walk of Ethiopian political reform: Analysis of hate speech prevalence, severity, and nature. In: Information, Communication & Society 26(1), 218–237.
- marasingam, A./Umar, S./Desai, S. (2022). “Fight, Die, and if Required Kill”: Hindu Nationalism, Misinformation, and Islamophobia in India. In: Religions 13(5), 380.
- Kimotho, S. G./Nyaga, R. N. (2016). Digitized Ethnic Hate Speech: Understanding Effects of Digital Media Hate Speech on Citizen Journalism in Kenya. In: Advances in Language and Literary Studies 7(3), 189–200.