Automatisierter Journalismus (auch Algorithmen-Journalismus genannt) meint die vollständig automatisierte Herstellung journalistischer Texte auf Basis menschlicher Instruktionen. Weitere Bezeichnungen lauten Roboterjournalismus oder algorithmischer Journalismus. Teils werden diese Begriffe auch genutzt, wenn Algorithmen lediglich bestimmte Arbeitsschritte, wie das Formulieren, übernehmen (Mooshammer 2022). Hier ist die vollständige Automatisierung aller Teilschritte gemeint. Die Idee, mittels Maschinen Texte für journalistische Zwecke zu erzeugen, ist dabei nicht grundlegend neu (Bernhart/Richter 2021). Seit der Jahrtausendwende hat der Einsatz allerdings stark zugenommen. Im Folgenden werden das Produkt, die Produzenten und rechtlichen Regeln sowie die Geschäftsmodelle vorgestellt.
Diverse Produkte
Einerseits werden von Menschenhand geschriebene Artikel von Algorithmen ersetzt, andererseits werden sie von automatisiertem Journalismus ergänzt, da Algorithmen genuin neue Güter produzieren. Aufgrund der geringen Grenzkosten können von Algorithmen etwa Artikel für kleine Zielgruppen geschrieben werden, beispielsweise Berichte über Vereine in der Kreisliga. Ein weiteres Angebot stellen Chat-Bots dar, wie beispielsweise Hej oder Fragen Sie Zeit online dar, die auf Nutzeranfragen antworten. Wenig Anwendung findet die Technik hingegen bei Themen, für die es keine digitale Datengrundlage gibt, sowie bei rechercheintensiven oder meinungsstarken Formaten wie dem Leitartikel. Der Einsatz von Algorithmen komplementiert somit die Palette journalistischer Angebote und substituiert diese weniger (Dörr 2023, S. 210). Im Unterschied zu bisherigen Digitalisierungsprojekten im Journalismus handelt es sich dabei nicht um einen Einsatz digitaler Technologie zum Zwecke der erweiterten Distribution oder Präsentation menschlich erzeugter Produkte (Weber/Steffl/Buschow 2021), sondern ein um genuin neues Digitalprodukt.
Produzenten des Algorithmen-Journalismus
Die Software für automatisierten Journalismus kommt vorwiegend von nicht journalistischen Akteuren mit informationstechnischem Hintergrund. Eingesetzt wird die Software jedoch nicht nur von etablierten Medienschaffenden, sondern auch von neuen Akteuren. Hierzu gehören etwa die Betreiber von Onlineportalen wie NewsGPT. Damit setzt sich ein Trend fort, der seit geraumer Zeit anhält: Über den Einsatz digitaler Technologie dringen neue, nicht unbedingt journalistische Konkurrenten in den Markt ein.
Rechtsrahmen
Eine Hürde für die Marktentwicklung ist die rechtliche Unsicherheit. Essenziell für Marktteilnehmer:innen ist das Recht auf die exklusive Verwertung ihres geistigen Eigentums, etwa ihrer Texte. Der automatisierte Journalismus fordert das an verschiedenen Stellen heraus. Erstens ist die meistbenutzte Software ChatGPT mit Daten trainiert worden, an die Dritte – prominente Medienunternehmen aus den USA –Ansprüche anmelden. Die Unternehmen werfen dem Vertreiber OpenAI vor, ohne Zahlung und rechtswidrig ihre Inhalte genutzt zu haben. Zweitens prüfen beispielsweise europäische Datenschutzorganisationen Klagen darüber, dass OpenAI mit der Verarbeitung sensibler Daten Datenschutzrichtlinien und damit Persönlichkeitsrechte hintergeht. Die Software als Produktionsmittel könnte hier noch juristisch eingeschränkt werden. Drittens können mittels der Software Inhalte schnell reproduziert und Stile kopiert werden. So wurde CNET von Konkurrenten vorgeworfen, ihr geistiges Eigentum zu verwerten. Besonders im öffentlichen Fokus steht die Frage der Kennzeichnung. Ein Gesetz hierzu gibt es nicht, im Pressekodex des Presserats ist keine Kennzeichnungspflicht vermerkt (siehe Deutscher Presserat 2023) und bisherige nicht gekennzeichnete Formen der Anwendung wurden entweder durch die Konkurrenz oder beobachtende Organisationen aufgedeckt (Süddeutsche Zeitung 2023). In den „Guidelines on the responsible implementation of artificial intelligence systems in journalism“ des Europarats wird jedoch Transparenz angemahnt und viele Verlage haben öffentlich einsehbare Richtlinien zu ihrem Umgang mit künstlicher Intelligenz veröffentlicht. Bisher ist der Einsatz somit wenig reguliert, rechtliche Einschränkungen und Pflichten werden derzeit verhandelt.
Geschäftsmodell
Der Markt für journalistische Angebote zeichnet sich durch einen Wettbewerb aus, der auf Preisen und Qualitäten beruht. Die Kosten für die Software waren für die deterministischen Systeme zunächst hoch, sind mit der generativen Technologie aber deutlich gesunken. Bei deterministischen Systemen geben Menschen mittels Instruktionen dem System detailliert vor, wie die Daten prozessiert werden sollen. Generative Systeme leiten hingen Prozessierungsschritte aus Beispieldaten automatisiert ab (maschinelles Lernen). Dann ist es für Menschen nicht mehr nachvollziehbar, wie ein Algorithmus arbeitet, und dieselbe Eingabe kann zu unterschiedlichen Ausgaben führen. Ferner braucht es zwar Investitionen in die Daten und in die Programmierung der Technik, jedoch sind die darauffolgenden Grenzkosten zur Erstellung einzelner Artikel gering. Zu beobachten sind Skalenerträge, wie sie für die digitale Ökonomie bezeichnend sind. Automatisierter Journalismus ist dann kostengünstiger als menschengemachter Journalismus.
Dabei sind unterschiedliche Qualitätsurteile zu beobachten. Während Algorithmen zugeschrieben wird, schneller zu schreiben und weniger fehleranfällig große Datenmengen zu verarbeiten, wird Menschen attestiert, kreativer sowie schöner zu schreiben und bewusst Werturteile treffen zu können (vgl. Dörr 2023, S. 205). Die Technik schreitet hier jedoch weiter voran, so können manche Systeme inzwischen sogar Sarkasmus erkennen (Băroiu/Trăuşan-Matu 2023).
Neben der rechtlichen Unsicherheit ist ungewiss, inwiefern mittels automatisiert erstellter Beiträge Erträge erwirtschaftet werden können. Rezipienten erkennen zwar die Qualitäten von Algorithmen an, stehen der Technik aber kritisch gegenüber, vor allem im hochpreisigen Segment (Meinungsmonitor KI 2022; Wellbrock/Buschow 2020). Als wahrscheinlich erachten es deshalb etwa Haim et al. (2018), dass automatisierter Journalismus eher über den Werbemarkt als über Abonnements monetarisiert wird. Mittels Algorithmen werden massenweise suchmaschinenoptimierte Inhalte erstellt, welche in ihrer Gesamtheit zu mehr Klicks führen, was zu einer Einnahmesteigerung auf dem Werbemarkt führt. Dabei handelt es sich jedoch um Momentaufnahmen von einer Kundschaft, die immer noch wenig eigene Erfahrung, Wissen und Vertrauen in generative KI hat, auch wenn sich leichte sozioökonomische Unterschiede zeigen (Kero/Akyürek/Flaßhoff 2023). Inwiefern mit automatisiertem Journalismus mehr Einnahmen sowie neue Erlösquellen entstehen, wird von deren Qualitätsurteil und Einschätzung abhängen.
Nischenbildung auf Anbieterseite
Am Markt lassen sich derzeit drei Strategien im Umgang mit automatisiertem Journalismus beobachten. Diese sind dabei eingebettet in eine grundlegende ökonomische Krise des Journalismus: Die Einnahmen aus dem Werbemarkt sinken, die eigene Abgrenzung journalistischer Inhalte wird schwieriger und zuletzt sind die Vertriebsausgaben der Printinhalte durch Mindestlohn, Vereinzelung auf dem Land und aufgrund hoher Papierkosten stark gestiegen. Bei der Frage nach dem Umgang mit automatisiertem Journalismus werden deshalb neben qualitativen Gründen auch ökonomische Zwänge relevant. Erstens setzen einige, vorwiegend neue Anbieter komplett auf die Automatisierung und stellen Inhalte entgeltfrei zur Verfügung (z. B. NewsGPT). Eine zweite Gruppe nutzt die Technologie nur für bestimmte Zwecke und unter menschlicher Aufsicht. In einer Umfrage des BZDV (2024) gaben 63 Prozent der befragten Zeitungsverlage an, diese Strategie zu verfolgen. Eine dritte Nische bilden etablierte journalistische Akteure, die sich der Technologie komplett verweigern. In der BZDV-Umfrage waren dies 36 Prozent der Befragten.
Vergleichbarkeit mit analogen Phänomenen
Im Hinblick auf das Resultat können menschliche Redakteur:innen und Algorithmen verglichen werden, gleichwohl sie sich im Produktionsprozess erheblich unterscheiden. Algorithmen können nur Informationen verarbeiten, die in Form digitaler Daten vorliegen. Deren Anzahl und Verfügbarkeit steigt enorm, doch Unknown Data wie menschliche Zwischentöne können trotzdem nicht verarbeitet werden. Darüber hinaus können Algorithmen keinen Bezug herstellen zwischen den Daten und dem, was die Daten repräsentieren sollen. Sie können die Daten in dieser Hinsicht nicht validieren oder kritisieren. Dies hat zur Folge, dass in historisch erhobene Daten eingeschriebene soziale Ungleichheiten vom Algorithmus nicht erkannt, reflektiert und korrigiert werden (Barocas/Selbst 2016). Ferner können Daten nur statistisch eingeschätzt werden, eine Bewertung entlang von Werten oder subjektiven Relevanzstrukturen ist nicht möglich. Darin liegt auch Potenzial, weil so etwa diskriminierende, gelernte Heuristiken und Bewertungsschemata überwunden werden können. Ferner unterscheidet sich die Transparenz: Bei nicht deterministischen Systemen kann der Prompt und – bei einigen Fällen – die Datengrundlage eines Artikels gezeigt werden, die Verarbeitung bleibt jedoch unklar. Bei deterministischen Systemen sind Verarbeitungsregeln einsehbar, sie stehen im Code. Menschen können ebenfalls ihre Quellen und ihre Bearbeitung offenlegen, kommen bei Common Knowledge und unbewussten Informationen aber an ihre Grenzen. Zudem kann es bei Systemen, die auf maschinellem Lernen beruhen, zu Halluzinationen kommen. Die Technik produziert dann faktisch falsche Informationen.
Gesellschaftliche Relevanz
Journalismus ist (immer noch) relevant, weil Menschen im Wesentlichen über Medien Informationen zu ihrer Umwelt erhalten (Luhmann 1997). Bei fehlender Überprüfung besteht die akute Gefahr der Verbreitung von Unwahrheiten aufgrund fehlerhafter Daten oder Halluzinationen. Algorithmen werden dann zu Fake-News-Maschinen. Zweitens gibt es mit den automatisierten Anbietern eine Konkurrenz, welche entgeltfreie Inhalte produziert, dabei jedoch von etablierten ethischen und journalistischen Qualitätsstandards abweicht. So übernimmt NewsGPT explizit keine Verantwortung für die Richtigkeit seiner Informationen (NewsGPT 2024). Konkurrenten, die etablierte ethische Standards demgegenüber wertschätzen, werden voraussichtlich nur bestehen können, wenn Konsument:innen auch bereit sind, für die Qualität dieser Inhalte (weiter) zu bezahlen. Ein anderer Punkt betrifft spezifisch das journalistische Feld. Schon jetzt verändert sich das Profil der gewünschten Kompetenzen von Journalist:innen und neben Weiterbildungen kommt es auch zu Freistellungen. Insofern sind Freisetzungseffekte zu beobachten, unabhängig von der Anzahl der Stellen.
Quellen
- Barocas, S./Selbst, A. (2016): Big data's disparate impact. In: Calif. Law Rev. 104: 671.
- Băroiu, A./Trăuşan-Matu, Ş. (2023). How capable are state-of-the-art language models to cope with sarcasm?. 24th International Conference on Control Systems and Computer Science (CSCS). Bucharest, Romania, 399–402. https://doi.org/10.1109/CSCS59211.2023.00069 [01.07.2024].
- BDZV/Hidhberg (2024): Trends der Zeitungsbranche [01.07.2024].
- Bernhart, T./Richter, S. (2021): Frühe digitale Poesie. In: Informatik-Spektrum 44(1), 11–18. https://doi.org/10.1007/s00287-021-01329-z [01.07.2024].
- BILD. Hey_Ihr Helfer mit KI. https://hey.bild.de/ [01.07.2024].
- Deutscher Presserat (2023): Jahresbericht 2023. [02.07.2024].
- Dörr, K. (2023): Algorithmische Werkzeuge–Chancen und Herausforderungen für den Journalismus. Journalismusforschung. Nomos Verlagsgesellschaft mbH & Co. KG: 210.
- Haim, M./Graefe, A./Brosius, H.-B. (2018): Wertschöpfung mithilfe von Algorithmen. Ansatzpunkte für die Veränderung von Geschäftsmodellen durch Computational Journalism. Medien Wirtschaft 15(3), 36–43.
- Kero, S./Akyürek, S./Flaßhoff, F. (2023): Bekanntheit und Akzeptanz von ChatGPT in Deutschland. Meinungsmonitor Künstliche Intelligenz. https://www.cais-research.de/wp-content/uploads/Factsheet-10-ChatGPT.pdf [01.07.2024].
- Landesanstalt für Medien NRW (2024): Algorithmen und KI im Aufwind. Ist der automatisierte Journalismus die Zukunft?. https://www.medienanstalt-nrw.de/fileadmin/fyi-Vol13_Newsletter_Informationsintermediaere.pdf [01.07.2024].
- Luhmann, N. (1998). Die Gesellschaft der Gesellschaft. Frankfurt am Main.
- Meinungsmonitor Künstliche Intelligenz (2022): Künstliche Intelligenz im Journalismus. https://www.cais-research.de/wp-content/uploads/Factsheet-4-Journalismus.pdf [01.07.2024].
- Mooshammer, S. (2022): There Are (Almost) No Robots in Journalism: An Attempt at a Differentiated Classification and Terminology of Automation in Journalism on the Base of the Concept of Distributed and Gradualised Action. In: Publizistik 67(4), 487–515. https://doi.org/10.1007/s11616-022-00757-5 [01.07.2024].
- News GPT (2024). NewsGPT, Terms of Use. https://newsgpt.ai/terms-of-use/ [01.07.2024].
- Süddeutsche Zeitung (12.05.2023): BURDA-Verlag. KI mit Soße.; Futurism (27.11.2023): Sports Illustrated Published Articles by Fake, AI-Generated Writers. https://futurism.com/sports-illustrated-ai-generated-writers [01.07.2024].
- Weber, J./Steffl, J./Buschow, C. (2021): Plattformen für digitalen Journalismus in Deutschland. In: MedienWirtschaft, 18(2), 20-34. https://doi.org/10.15358/1613-0669-2021-2-20 [01.07.2024].
- Wellbrock, C./Buschow, C. (2020): Money for nothing and content for free?. Schriftenreihe Medienforschung der Landesanstalt für Medien NRW. Baden-Baden.
- Zeit online (2024). Fragen Sie ZEIT ONLINE. (https://www.zeit.de/beta/fragen-sie-zeit-online-news) [02.07.2024].