| Aktuelles | Gastbeitrag | Krise der Demokratie durch digitale Medien?

Krise der Demokratie durch digitale Medien?

Eine Einladung zu weiterer Lektüre.

Prof. Andreas Jungherr beim Vortrag auf der Veranstaltung „Tatort Demokratie. Digitale Medien in Verdacht“
© bidt/Klaus D. Wolf

In unserem Vortrag Tatort Demokratie: Digitale Medien im Verdacht haben Ralph Schroeder und ich die Frage gestellt, ob Befunde der empirischen Sozialwissenschaft die Diagnose stützen, digitale Medien würden zu Demokratiekrisen führen. Ohne Zweifel sind digitale Medien ein wichtiges Element in der Verbreitung und Nutzung politischer Informationen, der politischen Koordination und Partizipation und werden dementsprechend intensiv von politischen Wettbewerbern genutzt. Das macht die politische Nutzung digitaler Medien zu einem wichtigen Thema der aktuellen Sozialwissenschaft. Gleichzeitig heißt es jedoch nicht automatisch, dass digitale Medien zu einer Transformation von Politik oder zu ihrer Krise führen (Jungherr, Rivero & Gayo-Avello, 2020).

Zurzeit scheint es, als würden Herausforderer des politischen Status quo besonders stark durch die Nutzung digitaler Medien profitieren (Jungherr, Schroeder & Stier, 2019). Aktuell darf jedoch bezweifelt werden, dass dies an spezifischen Charakteristiken digitaler Medien liegt. Wahrscheinlicher ist, dass dieser wahrgenommene Vorteil die Konsequenz unterschiedlicher strategischer Entscheidungen klassischer und neuer politischer Akteure in Abhängigkeit von Pfadkontinuitäten und unterschiedlicher Ressourcenausstattung ist.

Aus der öffentlichen Debatte haben wir drei dominante Narrative aufgegriffen, nach denen digitale Medien zu demokratischen Krisen beitragen könnten:

  • Echokammern und Filterblasen,
  • Politische Polarisierung und
  • Desinformation.

Die Diskussion der entsprechenden Erwartungen und Befunde bietet zugleich Aufschluss über die Bedingungen der sozialwissenschaftlichen Untersuchung politischer Effekte digitaler Medien.

Echokammern und Filterblasen

Die Debatte um Echokammern und Filterblasen geht davon aus, dass digitale Kommunikationsräume für einzelne Nutzer weitgehend homogene Informationsumgebungen darstellen. Das kann entweder an der Möglichkeit für Menschen liegen, sich gezielt Informationen ihres Interesses auszuwählen – Echokammern (Sunstein, 2007) –, oder daran, dass algorithmisch geformte Informationsumgebungen wie Facebook, Google oder Twitter Nutzern überwiegend Informationen anzeigen, für die für die jeweiligen Nutzer eine hohe Verweildauer oder Interaktionschancen vorhergesagt werden – Filterblasen (Pariser, 2011). Konsequenz dieser beiden unterschiedlichen Mechanismen sei eine über die Zeit auftretende gesellschaftliche Polarisierung, da Unterstützer unterschiedlicher politischer Richtungen andere politische Gruppen aus den Augen verlieren und keine ihrer Meinung widersprechenden Informationen erhalten (Sunstein, 2017).

Auch wenn Echokammern und Filterblasen weitgehend unhinterfragte Elemente der öffentlichen Debatte zur politischen Wirkung digitaler Medien sind, bleiben sie in der empirischen Forschung umstritten.

Warum die Diagnose einer demokratischen Krise voreilig ist

Anstatt hier die umfangreiche Debatte in der Literatur anhand von Einzelbefunden nachzuzeichnen, sei auf zwei aktuelle Literaturberichte verwiesen. Borgesius, Trilling, Möller, Bodó, de Vreese und Helberger (2016) und Guess, Lyons, Nyhan und Reifler (2018) bieten umfangreiche und differenzierte Darstellungen des aktuellen Forschungsstands zu Echokammern und Filterblasen und kommen unabhängig voneinander zu dem Schluss, dass die Diagnose einer demokratischen Krise auf Basis dieser Konzepte voreilig sei.

Auch wenn es sicherlich möglich ist, in einzelnen Onlineumgebungen weitgehend homogene Kommunikationsräume zu identifizieren, heißt das eben nicht automatisch, dass Menschen ausschließlich in diesen homogenen Umgebungen kommunizieren (Webster, 2014). Für das Auftreten der durch Theoretiker erwarteten gesellschaftlichen Polarisierung müsste das jedoch der Fall sein. Wir sehen aber, dass sich Menschen sowohl in homogenen als auch in heterogenen Informationsumgebungen bewegen und interagieren. Um Effekte dieser unterschiedlichen Kommunikationsumgebungen auf Nutzerverhalten zu untersuchen, braucht es also differenziertere Konzepte als Echokammern und Filterblasen (An, Kwak, Posegga & Jungherr, 2019).

Politische Polarisierung

Eng mit Echokammern und Filterblasen verbunden ist der vermutete Einfluss digitaler Medien auf politische Polarisierung. Angesichts der aktuell allgemein gefühlten Verschärfung des politischen Diskurses scheint diese Vermutung nur natürlich. Aber auch hier gilt es, vorsichtig in Diagnose und Wirkungszuschreibung zu sein.

Es lohnt ein Blick in die USA, einfach weil wir es dort mit dem Ursprungsland von Polarisierungserwartungen und dem daher auch umfangreichsten Literaturstand zu tun haben. Die Angst vor politischer Polarisierung in den USA hat eine Tradition, die deutlich vor die weitverbreitete Nutzung digitaler Medien zurückgeht.

In dieser Debatte wird der Begriff Polarisierung mit unterschiedlichen Prozessen in Verbindung gebracht. Polarisierung könnte darin bestehen, dass Einstellungen zu ausgewählten Fragen in einer gegebenen Population statisch an gegenüberliegenden Polen liegen, sich über die Zeit voneinander entfernen oder in politischen Lagern über verschiedene Einstellungsobjekte hin übereinstimmen. Hierbei kann es sich um gesellschaftsweite Einstellungen, solche unter politischen Unterstützern und Parteimitgliedern oder die politischer Eliten handeln (DiMaggio, Evans & Bryson, 1996).

Polarisierung als Folge der Strategie politischer Eliten

Empirisch zeigen sich in den USA konsistent Muster politischer Polarisierung für politische Eliten und Entscheidungsträger. Für politische Unterstützer zeigt sich Polarisierung besonders bei ausgewählten politischen Fragen, die im Fokus des politischen Wettbewerbs stehen (siehe Fiorina, 2017, Fiorina & Abrams, 2008, Fiorina, Abrams & Pope, 2010). Hier kann Polarisierung also als Folge der Strategie politischer Eliten gesehen werden (Achen & Bartels, 2016).

Von der generellen politischen Polarisierung der amerikanischen Bevölkerung geht die empirische Literatur nicht aus (siehe Fiorina, 2017, Fiorina & Abrams, 2008, Fiorina et al., 2010).

Zusätzlich zeigt die Literatur, dass die Nutzung digitaler Medien zur politischen Information sogar zur Nutzung politisch heterogenerer Informationen führt als die Nutzung anderer Medientypen oder auch persönlicher Gespräche (Gentzkow & Shapiro, 2011). Darüber hinaus zeigen Studien, dass gerade Gesellschaftsgruppen, für die über die Zeit die höchste Polarisierungstendenz erwartet wird, gleichzeitig die Gesellschaftsgruppen sind, in denen die Nutzung digitaler Medien gering verbreitet ist (Boxell, Gentzkow & Shapiro, 2017).

Wenn wir also von Polarisierung als einem demokratischen Problem sprechen wollen, dann ist es ein Problem, das hauptsächlich unter politischen Unterstützern verortet scheint und durch bewusste strategische Entscheidungen politischer Eliten ausgelöst oder verstärkt wird. Digitale Medien dienen hierbei als Verbreitungskanal, sind aber nicht ursächlich.

Desinformation

Aktuelle Debatten über die politischen Effekte von digitalen Medien sind stark von Ängsten vor Desinformation geprägt. Unter Desinformation fallen zum einen die absichtliche Verbreitung von Falschinformationen (Lewandowsky, Stritzke, Freund, Oberauer & Krueger, 2013), die öffentliche Anfechtung von Tatsachen, die der eigenen Agenda widersprechen, beispielsweise durch das Label „Fake News“ (Egelhofer & Lecheler, 2019, Zimmermann & Kohring, 2018), und Praktiken der gezielten Verstärkung irreführender Informationen (Benkler, Faris & Roberts, 2018). Ebenso problematisch ist die oft unbeabsichtigte Verbreitung sachlich falscher Informationen (Southwell, Thorson & Sheble, 2018).

Für ein Thema, das so starke Ängste hervorruft, ist die empirische Grundlage der Debatte über die Gefahren von Desinformation und die Rolle von digitalen Medien eher schwach.

Empfänger von Desinformation scheinen diese unabhängig von Informationsmotiven zu nutzen

Zum einen deuten die wenigen empirischen Tests der Reichweite von Desinformation auf begrenzte Verbreitung (Fletcher, Cornia, Graves & Nielsen, 2018, Grinberg, Joseph, Friedland, Swire-Thompson & Lazer, 2019, Guess, Nagler & Tucker, 2019). Zusätzlich scheinen Empfänger und Verbreiter von Desinformation diese unabhängig von Informationsmotiven zu nutzen (Marwick, 2018). Stattdessen handelt es sich anscheinend eher um die öffentliche Zuschaustellung eigener politischer Identität und Zugehörigkeit.

Studien in den USA haben beispielsweise gezeigt, dass Nutzer, die Desinformationen zugunsten der Republikanischen Partei ausgesetzt waren, diese überwiegend bereits unterstützten, tendenziell älter waren und sich allgemein stark für Politik interessierten (Grinberg et al., 2019, Guess et al., 2019). Dies ist ein Publikum, für das Überzeugung durch Desinformation unwahrscheinlich ist. Stattdessen könnte die Wirkung von Desinformation hier in der Verstärkung bereits vertretener Meinungen, in einer Änderung der als dominant oder akzeptabel empfundenen öffentlichen Meinung oder in der Festlegung der Agenda politischer Unterstützer liegen.

Über die individuelle Ebene hinaus ist es möglich, dass Desinformation – oder die öffentliche Diskussion über Desinformation – zu zunehmenden Zweifeln in politischen und Medieninstitutionen beiträgt und damit im Laufe der Zeit wiederum zur Destabilisierung politischer Systeme (Asmolov, 2019, Farrell & Schneier, 2018, Huang, 2017). Diese Effekte liegen im Bereich des Möglichen, sind jedoch empirisch schwer fassbar.

Die Literatur zur Rolle von digitalen Medien in der Politik ist von Widersprüchen geprägt.

Andreas Jungherr

Warum gibt es widersprüchliche Befunde?

Grundsätzlich ist die Literatur zur Rolle von digitalen Medien in der Politik von Widersprüchen geprägt. Wir finden theoretisch formulierte Erwartungen großer Umbrüche, seien sie nun positiv oder negativ, und wir finden empirische Texte, die selbstbewusst Ergebnisse präsentieren, die unterschiedlichen und widersprüchlichen Theorien recht geben (Jungherr et al., 2020). Das hat mehrere Gründe und erfordert einen vorsichtigen und reflektierten Umgang mit der Literatur.

Zum einen haben wir es mit einer grundsätzlichen Eigenschaft der Sozialwissenschaft zu tun: der Kontextabhängigkeit von Befunden. Sozialwissenschaft befasst sich häufig mit gesellschaftlichen Phänomenen, die das Resultat unterschiedlicher und veränderbarer Rahmenbedingungen sind und die von strategischen oder taktischen Entscheidungen gesellschaftlicher Akteure abhängen können (Flyvbjerk, 2001). Das macht einerseits das Aufstellen sozialwissenschaftlicher Gesetze, anders als in der Naturwissenschaft, in vielen Bereichen hinfällig.

Gleichzeitig heißt es auch, dass man die Ergebnisse einzelner empirischer Studien in der Einschätzung des wissenschaftlichen Wissenstands zu ausgewählten Fragestellungen nicht überbewerten darf. Einzelne empirische Studien können in sich vollkommen schlüssig und valide sein und zugleich von unbeobachteten und unverstandenen Kontextbedingungen bestimmt werden.

Erst die Gesamtschau vieler vergleichbarer Studien zu ausgewählten Fragestellungen erlaubt die Einschätzung des Wissensstands und die Einordnung abweichender Befunde einzelner Studien. Das gilt ganz besonders für die Untersuchung neuer gesellschaftlicher Phänomene wie der politischen Nutzung digitaler Medien, vor allem wenn diese steten Entwicklungs- und Veränderungsprozessen unterliegen (Karpf, 2012, Neuman, Bimber & Hindman, 2011).

Storytelling statt empirischer Befunde

Scheinbare Widersprüche treten auch dadurch auf, dass häufig Konzepte unpräzise angewendet werden. Ein Beispiel hierfür bieten viele Arbeiten zu vermeintlichen Echokammern oder Filterblasen in Onlinekommunikationsräumen. Die Konzepte stellen komplizierte theoretische Ketten von vermuteten psychologischen Motiven, Mediennutzungsverhalten und gesellschaftlicher Konsequenzen her. Wie oben berichtet, erweisen sich diese Ketten als empirisch schwer nachweisbar.

Studien, die Belege für Echokammern oder Filterblasen anführen möchten, beschränken sich in der Regel auf das Aufzeigen homogener Kommunikationsräume online oder der Simulation vermuteter Konsequenzen theoretischer Annahmen (Jungherr, 2017, Jungherr et al., 2020). Das ist grundsätzlich legitim und interessant (An et al., 2019). Auf dieser Basis dann jedoch von demokratischen Krisen zu sprechen ist Storytelling, das eben nicht auf empirischen Befunden basiert.

Wenn wir also widersprüchliche Befunde zur vermeintlichen Schwere demokratischer Krisen oder gesamtgesellschaftlicher Prozesse finden, gilt es, entsprechende Studien präzise zu lesen und so Unterschiede in der Nutzung und Operationalisierung von Konzepten zu identifizieren. Gleichzeitig gilt es, präzise aufzuzeigen, welche Schlüsse der Studien auf Basis tatsächlicher empirischer Ergebnisse und welche Schlüsse auf Basis von Storytelling entstehen.

Einsatz neuer Verfahren

Gleichzeitig stehen Wissenschaftler, die an der Untersuchung der Rolle digitaler Medien in der Politik interessiert sind, vor besonderen methodischen Herausforderungen. Unter dem Begriff Computational Social Science bündeln sich Hoffnungen und Erwartungen von Wissenschaftlern, dass digitale Forschungsumgebungen weitreichende neue Erkenntnisse über Gesellschaft und Politik bereithalten (Lazer, Pentland, Adamic, Aral, Barabasi, Brewer, Christakis, Contractor, Fowler, Gutmann, Jebara, King, Macy, Roy & Van Alstyne, 2009, Salganik, 2017, Watts, 2011).

Dieses Potenzial hat viel Forschungsaktivität freigesetzt. Das hat sich besonders in der Entwicklung neuer Mess- und Klassifizierungsmethoden niedergeschlagen. Doch diese Aktivität birgt nicht nur viel Potenzial, sie bringt eben auch Risiken mit sich. So erlaubt die Verbindung großer verfügbarer Datenmengen und computergestützter Methoden die Entwicklung vieler neuer Methoden und Klassifizierungsverfahren.

Gleichzeitig haben wir es mit einer Publikationskultur zu tun, die die Entwicklung neuer Methoden und Ansätze stärker fördert als ihren systematischen Test. Wir finden also viele neue Ansätze, die in der Untersuchung gesellschaftspolitisch relevanter Fragestellungen verwendet werden, ohne ausreichend auf ihre Validität und Reliabilität getestet worden zu sein (Jungherr, 2017, Jungherr, Schoen, Posegga & Jürgens, 2017, Jungherr & Theocharis, 2017). Widersprüchliche Befunde können also auch der Nutzung neuer, aber unzureichend geprüfter Verfahren und Datensätze geschuldet sein.

In der öffentlichen Debatte dominiert das Bild von manipulativen und übermächtigen Bots

Ein Beispiel hierfür ist die Forschung zum Einfluss automatisierter Accounts, sogenannter Bots, in digitalen Kommunikationsräumen. Während automatisierte Accounts scheinbar gezielt eingesetzt werden, um das öffentliche Meinungsklima in digitalen Kommunikationsräumen zu beeinflussen (Kovic, Rauchfleisch, Sele & Caspar, 2018), steht die Frage im Raum, ob diese Interventionen breiten gesellschaftlichen Einfluss entwickeln können.

Hier deuten Studien auf Basis von eindeutig als Bots identifizierten Accounts – zum Beispiel durch offiziell verifizierte Listen – auf vernachlässigbare Auswirkungen (z. B. Keller, Schoch, Stier & Yang, 2019). Gleichzeitig dominiert in der öffentlichen Debatte das Bild von manipulativen und übermächtigen Bots, die auf Knopfdruck Debatten bestimmen können. Dieses Bild entstand weitgehend auf Basis der Klassifizierung von Bots durch automatisierte Verfahren (z. B. Varol, Ferrara, Davis, Menczer & Flammini, 2017) oder sehr oberflächlicher Faustregeln (z. B. Howard & Kollanyi, 2016). Zudem bemühen sich entsprechende Verfahren nicht ausreichend um die Validierung der verwendeten Methoden und scheinen zu einer deutlichen Überschätzung der Bot-Population zu tendieren (Gallwitz & Kreil, 2019, Kreil, 2020).

Ohne ernst zu nehmende Versuche, das Ausmaß der durch entsprechende Methoden falsch als Bot klassifizierten Accounts einzuschätzen, bleiben entsprechende Methoden interessante Klassifizierungsübungen. Auf dieser Basis allerdings Gefahren für die Demokratie abzuleiten erscheint verfrüht.

Das wiederum heißt nicht, dass die Untersuchung automatisierter oder semiautomatisierter Accounts im öffentlichen Diskurs in Onlinekommunikationsräumen unwichtig oder illegitim ist. Es heißt auch nicht, dass es nicht grundsätzlich denkbar ist, dass entsprechende Accounts Einfluss nehmen können. Es heißt aber, dass überwiegend auf Basis nicht ausreichend validierter Klassifizierungsverfahren geweckte gesellschaftliche oder politische Erwartungen genauso unzuverlässig sind wie die zugrundeliegenden Verfahren.

Es ist vollkommen natürlich, dass sich in der Frühphase der Nutzung neuer Datensets und Methoden wissenschaftliche Befunde und Verfahren im Zeitverlauf als instabil und teilweise auch fehlerhaft herausstellen. Es ist Aufgabe der Wissenschaft, Neues auszuprobieren und kritisch zu hinterfragen. Probleme entstehen aber, wenn Wissenschaftler entsprechend unsichere Befunde politischen Entscheidern und der Öffentlichkeit ohne den Hinweis auf Vorläufigkeit und Unsicherheit kommunizieren.

Die zugrundeliegende Unsicherheit wird auch nicht notwendigerweise durch umfangreicheren Zugriff von Wissenschaftlern auf Daten aufgehoben. Der Wunsch nach mehr Daten und Einblick in verwendete Algorithmen ist verständlich und gerechtfertigt. Allein hierdurch werden neue Verfahren und Befunde jedoch nicht automatisch sicherer. Das Problem liegt also im Umgang mit notwendig vorläufigen Befunden und Methoden und ihrer Kommunikation.

Forschungsgegenstand im Wandel

Ganz grundsätzlich können auch die Regeln der Aufmerksamkeitsökonomie zu widersprüchlichen Einschätzungen der politischen Rolle digitaler Medien in Öffentlichkeit und Wissenschaft führen.

Der Forschungsgegenstand ist jung, in stetigem Wandel und stark verzahnt mit gleichzeitig ablaufenden gesellschaftlichen Veränderungen wie zum Beispiel der Globalisierung. Es ist daher zu erwarten, dass die gesellschaftlichen und politischen Auswirkungen digitaler Medien indirekt, kontextabhängig und in unterschiedlichen Gesellschaftsgruppen heterogen ausfallen (Jungherr et al., 2020, Neuman, 2016, Neuman et al., 2011). Diese Erwartungen prägen zunehmend wissenschaftliche Forschungsdesigns und Befunde.

Der öffentlichen Debatte fällt diese differenzierte Sicht jedoch schwerer. Hier dominieren entweder übertrieben starke Hoffnungen für die Freisetzung eines vermeintlich noch unrealisierten demokratischen Potenzials oder ebenso übertriebene Ängste vor der vermeintlich demokratiezersetzenden Wirkung digitaler Medien. Hier besteht natürlich die Versuchung für Wissenschaftler, diese Erwartungen der Öffentlichkeit, politischer Entscheider und Drittmittelgeber zu erfüllen und auf unwahrscheinliche, aber erregende Narrative von Hoffnung und Angst einzuschwenken. Das mag kurzfristig durch Aufmerksamkeit und Forschungsgelder belohnt werden, birgt aber mittelfristig die Gefahr, dass sich gravierende Missverständnisse über die Rolle digitaler Medien in Politik und Gesellschaft verfestigen.

Digitale Medien sind prägende Elemente zeitgenössischer Politik. Ihre Untersuchung sollte daher auch automatisch ein wichtiges Element einer an der Gegenwart interessierten Sozialwissenschaft sein. Gleichzeitig steht Wissenschaft in der Verantwortung, gesellschaftliche Meinungsbildungs- und Entscheidungsprozesse evidenzbasiert und kritisch zu begleiten. Dabei gilt es für Wissenschaftler, der Versuchung zu widerstehen, die ihnen von Politik, Öffentlichkeit und Medien allzu bereitwillig angetragene Rolle von Cheerleadern oder Untergangspredigern zu spielen.

Literatur

Achen, C. H. und Bartels, L. M. (2016). Democracy for Realists: Why Elections Do Not Produce Responsive Government. Princeton, NJ: Princeton University Press.
An, J., Kwak, H., Posegga, O. und Jungherr, A. (2019). Political Discussions in Homogeneous and Cross-Cutting Communication Spaces: Interaction Patterns and Linguistic Strategies on Reddit. ICWSM 2019: Proceedings of the Thirteenth International AAAI Conference on Web and Social Media (S. 68–79). Menlo Park, CA: Association for the Advancement of Artificial Intelligence (AAAI).
Asmolov, G. (2019). The Effects of Participatory Propaganda: From Socialization to Internalization of Conflicts. Journal of Design and Science, 6. doi:10.21428/7808da6b.833c9940
Benkler, Y., Faris, R. und Roberts, H. (2018). Network Propaganda: Manipulation, Disinformation, and Radicalization in American Politics. New York: Oxford University Press.
Borgesius, F. J. Z., Trilling, D., Möller, J., Bodó, B., de Vreese, C. H. und Helberger, N. (2016). Should We Worry About Filter Bubbles? Internet Policy Review: Journal on Internet Regulation, 5(1), 1–16. doi:10.14763/2016.1.401
Boxell, L., Gentzkow, M. und Shapiro, J. M. (2017). Greater Internet Use Is Not Associated with Faster Growth in Political Polarization Among US Demographic Groups. PNAS: Proceedings of the National Academy of Sciences of the United States of America, 114(40), 10612–10617. doi:10.1073/pnas.1706588114
DiMaggio, P., Evans, J. und Bryson, B. (1996). Have Americans’ Social Attitudes Become More Polarized? American Journal of Sociology, 102(3), 690–755. doi:10.1086/230995
Egelhofer, J. L. und Lecheler, S. (2019). Fake News as a Two-Dimensional Phenomenon: A Framework and Research Agenda. Annals of the International Communication Association, 43(2), 97–116. doi:10.1080/23808985.2019.1602782
Farrell, H. und Schneier, B. (2018). Common-Knowledge Attacks on Democracy. Boston, MA: The Berkman Klein Center for Internet & Society.
Fiorina, M. P. (2017). Unstable Majorities: Polarization, Party Sorting, and Political Stalemate. Stanford, CA: Hoover Institution Press.
Fiorina, M. P. und Abrams, S. J. (2008). Political Polarization in the American Public. Annual Review of Political Science, 11(1), 563–588. doi:10.1146/annurev.polisci.11.053106.153836
Fiorina, M. P., Abrams, S. J. und Pope, J. C. (2010). Culture War? The Myth of a Polarized America (3. Auflage). New York: Longman.
Fletcher, R., Cornia, A., Graves, L. und Nielsen, R. K. (2018). Measuring the Reach of “Fake News” and Online Disinformation in Europe. Oxford: Reuters Institute for the Study of Journalism.
Flyvbjerk, B. (2001). Making Social Science Matter: Why Social Inquiry Fails and How It Can Succeed Again. Cambridge: Cambridge University Press.
Gallwitz, F. und Kreil, M. (2019). Die Mär von „Social Bots“. Tagesspiegel. Online verfügbar unter https://background.tagesspiegel.de/digitalisierung/die-maer-von-social-bots
Gentzkow, M. und Shapiro, J. M. (2011). Ideological Segregation Online and Offline. The Quarterly Journal of Economics, 126(4), 1799–1839. doi:10.1093/qje/qjr044
Grinberg, N., Joseph, K., Friedland, L., Swire-Thompson, B. und Lazer, D. (2019). Fake News on Twitter During the 2016 U.S. Presidential Election. Science, 363(6425), 374–378. doi:10.1126/science.aau2706
Guess, A., Lyons, B., Nyhan, B. und Reifler, J. (2018). Avoiding the Echo Chamber About Echo Chambers: Why Selective Exposure to Like-Minded Political News Is Less Prevalent than You Think. New York: Knight Foundation.
Guess, A., Nagler, J. und Tucker, J. A. (2019). Less than You Think: Prevalence and Predictors of Fake News Dissemination on Facebook. Science Advances, 5(1), eaau4586. doi:10.1126/sciadv.aau4586
Howard, P. N. und Kollanyi, B. (2016). Bots, #StrongerIn, and #Brexit: Computational Propaganda During the UK-EU Referendum. The Computational Propaganda Project: Algorithms, Automation and Digital Politics. Online verfügbar unter https://comprop.oii.ox.ac.uk/research/working-papers/bots-strongerin-and-brexit-computational-propaganda-during-the-uk-eu-referendum/
Huang, H. (2017). A War of (Mis)Information: The Political Effects of Rumors and Rumor Rebuttals in an Authoritarian Country. British Journal of Political Science, 47(2), 283–311. doi:10.1017/S0007123415000253
Jungherr, A. (2017). Normalizing Digital Trace Data. In N. J. Stroud und S. C. McGregor (Hrsg.), Digital Discussions: How Big Data Informs Political Communication (S. xx–xx). Oxon: Routledge.
Jungherr, A., Rivero, G. und Gayo-Avello, D. (2020). Retooling Politics: How Digital Media Are Shaping Democracy. Cambridge: Cambridge University Press.
Jungherr, A., Schoen, H., Posegga, O. und Jürgens, P. (2017). Digital Trace Data in the Study of Public Opinion: An Indicator of Attention Toward Politics Rather than Political Support. Social Science Computer Review, 35(3), 336–356. doi:10.1177/0894439316631043
Jungherr, A., Schroeder, R. und Stier, S. (2019). Digital Media and the Surge of Political Outsiders: Explaining the Success of Political Challengers in the United States, Germany, and China. Social Media + Society, 5(3), 1–12. doi:10.1177/2056305119875439
Jungherr, A. und Theocharis, Y. (2017). The Empiricist’s Challenge: Asking Meaningful Questions in Political Science in the Age of Big Data. Journal of Information Technology & Politics, 14(2), 97–109. doi:10.1080/19331681.2017.1312187
Karpf, D. (2012). Social Science Research Methods in Internet Time. Information Communication & Society, 15(5), 639–661. doi:10.1080/1369118X.2012.665468
Keller, F. B., Schoch, D., Stier, S. und Yang, J. H. (2019). Political Astroturfing on Twitter: How to Coordinate a Disinformation Campaign. Political Communication. doi:10.1080/10584609.2019.1661888
Kovic, M., Rauchfleisch, A., Sele, M. und Caspar, C. (2018). Digital Astroturfing in Politics: Definition, Typology, and Countermeasures. Studies in Communication Sciences, 18(1), 69–85. doi:10.24434/j.scoms.2018.01.005
Kreil, M. (2020). The Army that Never Existed: The Failure of Social Bots Research. michaelkreil.github.io. Online verfügbar unter https://michaelkreil.github.io/openbots/
Lazer, D., Pentland, A., Adamic, L. A., Aral, S., Barabasi, A. L., Brewer, D., Christakis, N., Contractor, N., Fowler, J., Gutmann, M., Jebara, T., King, G., Macy, M. W., Roy, D. und Van Alstyne, M. (2009). Computational Social Science. Science, 323(5915), 721–723. doi:10.1126/science.1167742
Lewandowsky, S., Stritzke, W. G. K., Freund, A. M., Oberauer, K. und Krueger, J. I. (2013). Misinformation, Disinformation, and Violent Conflict: From Iraq and the “War on Terror” to Future Threats to Peace. American Psychologist, 68(7), 487–501. doi:10.1037/a0034515
Marwick, A. E. (2018). Why Do People Share Fake News? A Sociotechnical Model of Media Effects. Georgetown Law Technology Review, 2(2), 474–512.
Neuman, W. R. (2016). The Digital Difference: Media Technology and the Theory of Communication Effects. Cambridge, MA: Harvard University Press.
Neuman, W. R., Bimber, B. und Hindman, M. (2011). The Internet and Four Dimensions of Citizenship. In G. C. Edwards III, L. R. Jacobs und R. Y. Shapiro (Hrsg.), The Oxford Handbook of American Public Opinion and the Media (S. 22–42). Oxford: Oxford University Press.
Pariser, E. (2011). The Filter Bubble: What the Internet Is Hiding from You. New York: Penguin.
Salganik, M. J. (2017). Bit by Bit: Social Research in the Digital Age. Princeton, NJ: Princeton University Press.
Southwell, B. G., Thorson, E. A. und Sheble, L. (Hrsg.; 2018). Misinformation and Mass Audiences. Austin, TX: University of Texas Press.
Sunstein, C. R. (2007). Republic.com 2.0. Princeton, NJ: Princeton University Press.
Sunstein, C. R. (2017). #Republic: Divided Democracy in the Age of Social Media. Princeton, NJ: Princeton University Press.
Varol, O., Ferrara, E., Davis, C. A., Menczer, F. und Flammini, A. (2017). Online Human-Bot Interactions: Detection, Estimation, and Characterization. In D. Ruths, W. Mason, A. E. Marwick und S. González-Bailón (Hrsg.), ICWSM 2017: Proceedings of the Eleventh International AAAI Conference on Web and Social Media (S. 280–289). Menlo Park, CA: Association for the Advancement of Artificial Intelligence (AAAI).
Watts, D. J. (2011). Everything Is Obvious: How Common Sense Fails Us. New York: Random House.
Webster, J. G. (2014). The Marketplace of Attention: How Audiences Take Shape in a Digital Age. Cambridge, MA: The MIT Press.
Zimmermann, F. und Kohring, M. (2018). “Fake News” als aktuelle Desinformation: Systematische Bestimmung eines heterogenen Begriffs. M&K: Medien & Kommunikationswissenschaft, 66(4), 526–541. doi:10.5771/1615-634X-2018-4-526