Projektbeschreibung
In den kommenden Jahren werden Softwaresysteme, die auf Large Language Models (LLMs), wie z. B. OpenAIs ChatGPT oder Googles Gemini basieren, die Art und Weise grundlegend verändern, wie Informationen in modernen Gesellschaften zirkulieren. Zweifellos werden Bürgerinnen und Bürger sowohl in Demokratien als auch in Autokratien LLM-gestützte Systeme gleichermaßen nutzen. Jedoch werden autoritäre Regime durch eine Kombination aus Regulierungsmaßnahmen, staatlich geförderten Initiativen und strategischer Zensur in erheblichem Ausmaß Kontrolle über die Entwicklung von Large Language Models (LLMs) ausüben.
In Autokratien wie China und Russland werden LLMs beispielsweise heute vielfach unter der Schirmherrschaft staatlich kontrollierter Unternehmen entwickelt. Dadurch wird sichergestellt, dass die Ausgaben dieser Modelle mit den politischen Narrativen und Ideologien der herrschenden Eliten übereinstimmen. Darüber hinaus zensieren Autokraten zunehmend den Zugang zu in Demokratien entwickelten LLMs in ihrem Hoheitsgebiet, da diese demokratischen LLMs als Vermittler demokratischer Ideologien und Werte wahrgenommen werden. So haben beispielsweise sowohl China als auch Russland die Nutzung von OpenAIs ChatGPT verboten.
Vor dem Hintergrund dieser Entwicklungen wird dieses Projekt zwei übergreifende Forschungsfragen aufwerfen: (1) Wie und mit welchen Folgen sind autoritäre LLM-gestützte Softwaresysteme in die heutige russische Gesellschaft eingebettet? (2) Welche Folgen hat es, dass „autoritäre Daten“ (also Daten, die durch autoritäre Einflussnahme und Zensur manipuliert wurden) zunehmend in westliche LLM-gestützte Systeme eingespeist werden? Im Rahmen von vier miteinander verbundenen Arbeitspaketen wird das Projekt untersuchen, wie LLM-gestützte Systeme in Russland im Vergleich zu westlichen Demokratien reguliert werden (Arbeitspaket 1 [AP1]), um empirisch zu prüfen, wie sich die Outputs führender demokratischer und autoritärer LLMs unterscheiden (AP2). Das Projekt sieht auch Öffentlichkeitsarbeit und Wissenstransfer vor, wobei ein Leitfaden zur Propagandakompetenz entwickelt werden soll (AP3). AP4 hat zum Ziel, die Folgen des Aufstiegs von LLMs auf den öffentlichen Diskurs in demokratischen und autoritären Gesellschaften zu verstehen und zu theoretisieren. Letztendlich zielt das Projekt „Autoritäre KI“ darauf ab, (a) die Widerstandskraft von Demokratien gegen autoritäre Einflussnahme mittels LLMs zu stärken und (b) transparent zu machen, wie autoritäre Eliten LLM-gestützte Systeme manipulieren.
Projektteam
Prof. Dr. Florian Töpfl
Professor für Politische Kommunikation, Universität Passau | Lehrstuhl für Politische Kommunikation mit Schwerpunkt auf Osteuropa und die postsowjetische Region
Prof. Dr. Andreas Jungherr
Professor für Politikwissenschaft insb. Digitale Transformation, Otto-Friedrich-Universität Bamberg
Prof. Dr. Florian Lemmerich
Professor für Angewandtes Maschinelles Lernen, Universität Passau