Eine repräsentative Studie des Content Moderation Lab an der TU München hat gemeinsam mit Forschenden der Universität Oxford die öffentlichen Einstellungen zur Moderation von Inhalten in sozialen Medien untersucht. Hierzu wurden im Oktober und November 2024 13.500 Personen in zehn Ländern befragt. Zentrales Ergebnis der 2025 veröffentlichten Studie ist ein globaler Konsens für eine verstärkte Moderierungen der Inhalte auf sozialen Plattformen, um Desinformation und Hassrede zu reduzieren.
Dabei spiegelt sich in den teils widersprüchlichen Rückmeldungen der Befragten das komplexe Verhältnis aus uneingeschränkter Meinungsfreiheit einerseits und Schutz vor digitaler Gewalt andererseits wider. So sprachen sich 74 % der Befragten dafür aus, Meinungsfreiheit als wichtigen Grundwert zu priorisieren, während zugleich 79 % befürworteten, Aufrufe zu Gewalt auf sozialen Plattformen zu verbieten. Die Positionierung innerhalb dieses Spannungsfeldes zwischen Freiheit und Sicherheit ist, wie die Autorinnen und Autoren betonen, durch kulturelle Normen und politische Kontexte geprägt.
Ungeachtet dessen kommt die Studie aber zu dem Schluss, dass es universal ein wachsendes Bewusstsein dafür gibt, dass uneingeschränkte Meinungsfreiheit im digitalen Raum demokratischen Prinzipien schaden kann. Zugleich wird mit Sorge darauf hingewiesen, dass toxisches Verhalten zunehmen normalisiert und von 59 % der Befragten als unvermeidbares Element im digitalen Umgang miteinander wahrgenommen wird.
Blog: Die wichtigsten Ergebnisse der Studie im Überblick
Abschließend folgt daraus die Frage, welchen Akteuren welche Rolle bei der Moderierung von Online-Inhalten zukommen soll. Hierzu zeigt die Studie ein sehr diffuses Bild. Die Befragten sehen jeweils zu circa einem Drittel die Plattformbetreibenden, Bürgerinnen und Bürger oder die Regierung in der Verantwortung, ein gesundes Diskursklima in den sozialen Medien herzustellen, wobei sich in der Verteilung der Antworten erneut deutliche Unterschiede zwischen den untersuchten Ländern zeigen. Auch wenn Befragte also länderübergreifend eine Notwendigkeit von Moderation von Hassrede in sozialen Netzwerken sehen, fehlt ein Konsens dazu, wer hierfür verantwortlich ist.


