| Aktuelles | Blog | Der DSA – ein Instrument gegen Desinformation im Netz?

Der DSA – ein Instrument gegen Desinformation im Netz?

Nicht erst seit der COVID-19-Pandemie steht der Kampf gegen Desinformationen im Internet weit oben auf der digitalpolitischen Agenda der Europäischen Union. Mit dem Digital Services Act (DSA) ist ein Gesetz verabschiedet worden, das sich unter anderem dieser Problematik annehmen soll. Doch ist der DSA auch ein taugliches Instrument hierzu?


Mit dem Ziel den Kampf gegen Hatespeech und Desinformationen voranzutreiben, hat die Europäische Union den DSA als Teil eines Gesetzespakets gemeinsam mit dem Digital Markets Act (DMA) auf den Weg gebracht. In Anwendung treten wird der DSA mit dem größeren Teil seiner Vorschriften zum 17. Februar 2024. Durch die Verordnung soll die Rechtslage und das Regulierungsinstrumentarium an die Realitäten des Internets angepasst werden. Die E-Commerce-Richtlinie als Vorgängergesetz des DSA stammt aus dem Jahr 2000 und ist ebenso wie ihr US-amerikanisches Vorbild, der Communication Decency Act (1996), in einer Zeit entstanden, in der das Internet noch in seinen Kinderschuhen steckte. Vorrangiges Regulierungsziel damals war es, einen Rahmen für eine sich entwickelnde Technologie zu setzen, ohne diesen Entwicklungsprozess zu behindern. Dies geschah vor allem im Zuge von Haftungsprivilegien, die die Entwicklung des Internets, so wie wir es kennen, erst ermöglicht haben.

Inzwischen sind diese Haftungsprivilegien – gerade vor dem Hintergrund der schnellen Verbreitung von Desinformation im Netz – überholt. Gleichzeitig soll auch eine aufkommende Rechtszersplitterung im Binnenmarkt beim Kampf gegen Hatespeech und Desinformation verhindert werden – Deutschland selbst hat hier mit dem Netzwerkdurchsetzungsgesetz (NetzDG) eine Vorreiterrolle eingenommen. Dabei geht es auch um die Frage, wie viel Verantwortung die Betreiber großer Onlineplattformen bei der Bekämpfung solcher Inhalte tragen sollen. Hatespeech und Desinformation sind zwar keine neuen Phänomene, sie haben jedoch durch das Internet eine erhebliche Verstärkung erfahren und sind nicht erst seit der Pandemie ein zentrales Thema geworden.

Vor diesem Hintergrund beleuchten wir in diesem Blogbeitrag, ob der DSA das Ziel, Desinformationen zu bekämpfen, auch erfüllen kann oder ob Nachbesserungspotenzial besteht.

Herausforderungen durch Desinformation auf digitalen Kommunikationsplattformen

Bekannt in der breiten Öffentlichkeit als „Fake News“ ist der Begriff der Desinformation als eine „vorsätzliche Herstellung pseudo-journalistischer Falschinformationen“ zu definieren. Verwendet wird die Bezeichnung „Fake News“ auch als Label zur Delegitimierung etablierter Nachrichtenmedien. Wird der Begriff als Genre und nicht als Etikett verwendet, handelt es sich bei Desinformation um Nachrichtenmeldungen, die absichtlich irreführend sind und erstellt sowie verbreitet werden mit dem Ziel, Rezipientinnen und Rezipienten zu beeinflussen. Somit darf der Begriff der Desinformation nicht mit dem Begriff der Misinformation verwechselt werden – Letzteres beschreibt lediglich unbeabsichtigte Fehler in den verbreiteten Informationen, die nicht vorsätzlich täuschen sollen.

Das Phänomen der Desinformation umfasst Audio-, visuelle oder audiovisuelle Inhalte und kann sowohl massenmedial als auch durch interpersonelle Kommunikation verbreitet werden. Obwohl die Verbreitung von Desinformation nichts Neues ist, ist ihre Bedeutung mit dem Aufkommen digitaler Technologien enorm gewachsen. Insbesondere im Zusammenhang mit dem US-amerikanischen Wahlkampf im Jahr 2016 und dem Brexit im Jahr 2020 wurde die Rolle sozialer Netzwerke in der steigenden Reichweite von Desinformationskampagnen sowohl in wissenschaftlichen Kreisen als auch in der breiten Öffentlichkeit kritisch diskutiert.

Die schnelle Verbreitung von Desinformation in den sozialen Medien und allgemein auf Kommunikationsplattformen bringt große Herausforderungen für die demokratische Gesellschaft mit sich. Vor dem Hintergrund, dass Medien eine zentrale Rolle in Meinungsbildungsprozessen spielen, ist die Verbreitung von Desinformation gerade in Wahlkampf- oder Krisenzeiten besonders problematisch und gefährlich für die öffentliche Meinungsbildung. Somit kann Desinformation unter anderem die Legitimierung politischer Krisenentscheidungen gefährden und zu Unsicherheit und Misstrauen gegenüber politischen Institutionen führen, wie sich im Zuge der Coronakrise gezeigt hat. Besonders groß ist die Gefahr vor Falschinformationen, insbesondere wenn Nutzerinnen und Nutzer ihre Informationen lediglich online, zum Beispiel auf digitalen Kommunikationsplattformen, beziehen und sonst kaum Kontakt zu anderen Nachrichtenquellen haben.

Darüber hinaus haben Nutzerinnen und Nutzer häufig Schwierigkeiten, Desinformation zu erkennen, da sie in der Regel in Form journalistischer Beiträge verfasst sind und sich auf den ersten Blick kaum von redaktionellen Texten in Qualitätsmedien unterscheiden. Studien zeigen, dass Faktenchecker oder weitere Ressourcen zur Authentifizierung medial vermittelter Informationen herangezogen werden, wenn die Rezipienten sich unsicher sind, wie viel Glaubwürdigkeit sie ihren Quellen schenken sollen.

Um die Verbreitung von Desinformation einzuschränken und – wenn möglich – zu bekämpfen, setzen soziale Medien und Suchmaschinen wie Facebook und Google automatisierte Erkennungstechnologien ein.

Desinformationen – illegale Inhalte?

Der DSA widmet sich nicht ausdrücklich den Desinformationen, sondern knüpft insbesondere an sogenannte „illegale Inhalte“ an und sieht eine Reihe von Instrumenten vor, um die Verbreitung solcher Inhalte zu verhindern. Zentral ist insbesondere der sogenannte „Notice-and-Action“-Mechanismus in Art. 16 DSA. Dieser Norm folgend müssen die Betreiber von Onlineplattformen einen nutzerinnen- und nutzerfreundlichen Mechanismus bereitstellen, mit dem Nutzerinnen und Nutzer illegale Inhalte bei der Plattform melden können. Handelt die Plattform anschließend nicht, so verliert sie ihre Haftungsprivilegien und haftet für den Inhalt, obwohl er von einer Nutzerin oder eine Nutzer stammt. Aber auch für die Anordnung nationaler Behörden, bestimmte Inhalte zu entfernen (Art. 9), ist das Vorliegen eines illegalen Inhalts zentral. Der DSA enthält jedoch keine eigene Definition, was unter illegalen Inhalten zu verstehen ist. Vielmehr überlässt er die Definition dieses Begriffs den einzelnen Mitgliedstaaten. Grundsätzlich führt dies zu einem breiten Anwendungsbereich des DSA – breiter als jener des deutschen NetzDGs, das nur bestimmte Straftaten erfasst. Genauer differenziert wird zwischen unterschiedlichen Arten illegaler Inhalte allerdings nicht und auch sogenannter „Awful but Lawful Content“, also solche Inhalte, die zwar als schädlich angesehen werden können, aber gerade noch dem Bereich der legalen Inhalte zuzuordnen sind, sind nicht erfasst.

Ebenso nicht erfasst sind reine Desinformationen, die – zumindest nach deutschem Recht – keine illegalen Inhalte darstellen. Als unwahre Tatsachenaussagen sind sie zwar nicht von der Meinungsfreiheit geschützt, gleichzeitig profitieren sie aber auch von der „Legalität der Lüge“. Nur wenn Desinformationen andere Rechtsgüter betreffen und beispielsweise in die Persönlichkeitsrechte anderer Personen eingreifen, handelt es sich um illegale Inhalte (beispielsweise um eine Verleumdung i. S. d. § 187 StGB). Diese Entscheidung des Gesetzgebers kann zwar negative Auswirkungen auf den demokratischen Diskurs haben, nichtsdestotrotz ist sie grundsätzlich als richtig zu werten – denn nicht der Staat soll darüber entscheiden können, welche Aussagen verbreitungswürdig sind und welche nicht. Vielmehr muss sich der demokratische Rechtsstaat auf die Kraft der freien Auseinandersetzung verlassen, auch wenn er diese Voraussetzung nicht uneingeschränkt garantieren kann, wenn es um die Einschränkung von Desinformationen geht.

Auch wenn die vermeintlich wichtigsten Instrumente des DSA nicht auf die Verbreitung von Desinformation anwendbar sind, ist es nicht ausgeschlossen, dass der DSA dennoch zum Kampf gegen die Verbreitung von Desinformation auf Onlinekommunikationsplattformen beiträgt.

Zentral ist hierbei vor allem ein vom DSA verfolgter Selbstregulierungsansatz. Es wird den Plattformen selbst überlassen, welche Inhalte sie zulassen wollen und welche nicht. Dies gilt auch für Desinformation, denn interne Regelwerke der Plattformen bestimmen maßgeblich – wie es bisher schon der Status quo ist –, ab wann und unter welchen Umständen Desinformationen zulässig sind. Gleichzeitig verstärkt der DSA aber die Transparenzpflichten, sodass die Diensteanbieter u. a. weitgehende Informationen über ihre Inhaltsmoderationstätigkeiten offenlegen müssen (Art. 15 DSA). Dies soll die Nachvollziehbarkeit der privaten Entscheidungen stärken und einer willkürlichen Moderation vorbeugen. Ob sich dieser Ansatz einer transparenten Selbstregulierung bewährt, bleibt jedoch abzuwarten und muss der empirischen Überprüfung unterzogen werden, sodass fraglich bleibt, ob der DSA der Verbreitung von Desinformationen wirksam begegnet.

Die vom bidt veröffentlichten Blogbeiträge geben die Ansichten der Autorinnen und Autoren wieder; sie spiegeln nicht die Haltung des Instituts als Ganzes wider.