Kürzlich ist die „Verordnung über künstliche Intelligenz“ der EU in Kraft getreten. Die aktive Nutzung von KI steht einem so breiten Publikum offen wie nie zuvor. In diesem Beitrag wird der Zusammenhang zwischen der Nutzung und dem Wunsch nach stärkerer Regulierung von generativer KI untersucht.
Am 1. August 2024 trat die EU-Verordnung über künstliche Intelligenz (AI Act) in Kraft, welche die Grundlage für die Regulierung von KI legt und das „erste umfassende Regelwerk für KI“ (Bundesregierung 2024) weltweit darstellt. Bereits im Jahr 2019 initiiert, lenkte vor allem die Veröffentlichung von ChatGPT 2022/2023 die Aufmerksamkeit wieder stärker auf diesen diskutierten Rechtsrahmen, denn mit ChatGPT wurde generative KI als eine Form der sogenannten General Purpose AI erstmals auch einem sehr breiten Publikum zugänglich. Hauptgründe sind der niederschwellige Zugang und die intuitive Bedienung in Form eines Dialogsystems, das in natürlicher Sprache funktioniert. Zudem kommt man durch die Integration generativer KI in bestehende Softwareprodukte oder Geräte wie Officeprogramme, Messengerdienste, Internetbrowser, Smartphones oder das Windows-Betriebssystem inzwischen fast unvermeidlich damit in Berührung.
Doch auch wenn generative KI sehr viel und vieles auch sehr gut kann, so ist die Nutzung von KI im Allgemeinen auch mit Herausforderungen verbunden. (Generative) KI kann unter anderem Fehler und Ungenauigkeiten produzieren bzw. reproduzieren, Vorurteile verstärken oder die Verbreitung von Desinformation und Hassrede erleichtern. Mit dem Ziel, unter anderem auch diese Risiken zu minimieren, ist die KI-Verordnung der EU im Mai 2023 verabschiedet worden. Allerdings rief die Verordnung schon vor der Verabschiedung unterschiedliche Reaktionen bei verschiedenen Interessengruppen hervor: So ist die Rede von einem „klaren Wegweiser für den Einsatz von KI“ (Bündnis 90/Die Grünen 2024). Gleichzeitig wird die Verordnung auch etwas ambivalent als „die beste schlechte KI-Regulierung der Welt“ (Zeit 2024) beschrieben oder aber gar als Rechtsrahmen, welcher die „Wettbewerbsfähigkeit europäischer Firmen in Gefahr“ bringe (so der Bitkom-Geschäftsführer im Deutschlandfunk 2024). Doch was hält die Bevölkerung, die durch ChatGPT und ähnliche generative Systeme erstmals die Möglichkeit hat, zu aktiven Nutzenden von KI zu werden, von der Regulierung ebensolcher? Und gibt es Einstellungsunterschiede von Nutzenden und Nichtnutzenden bei den Regulierungswünschen? Für die Beantwortung dieser Fragen wird hier auf bidt-Befragungsdaten von Juli/August 2023 (bidt 2023) zurückgegriffen, die insgesamt 3.020 Internetnutzende ab 16 Jahren in Deutschland umfassen. Die Ergebnisse sind repräsentativ für Internetnutzende in Deutschland und nach Alter, Geschlecht, Bildung und Bundesland gewichtet.
Kein klarer Zusammenhang zwischen Wunsch nach stärkerer Regulierung und Nutzung
Für eine stärkere Regulierung von generativer KI spricht sich insgesamt eine Mehrheit von 52 % der Befragten aus. Zwar traut sich von den Befragten, die noch nie von generativer KI gehört haben, mit 17 % ein vergleichsweise großer Anteil gar keine Meinung zu. Allerdings befürwortet aber auch die Hälfte dieser Befragten eine stärkere Regulierung. Damit ist dieser Anteil annähernd so groß wie unter den Befragten, die generative KI-Systeme bereits mehrfach eingesetzt haben. Wirklich ausschlaggebend für die Einstellung gegenüber der Regulierung generativer KI scheint demnach weder die bloße Bekanntheit von generativer KI noch die hier grob erfasste tatsächliche Nutzungshäufigkeit allein zu sein.
Wissen hat einen Einfluss auf Regulierungswünsche
Um detailliertere Einblicke zu gewinnen, wurde in einem zweiten Schritt zusätzlich das Wissen der Befragten miteinbezogen, dass manche Ergebnisse generativer KI auch faktisch falsch sein können – im Folgenden als „kritisches Wissen“ bezeichnet. Denn ein fast unvermeidliches Phänomen generativer KI sind sogenannte Halluzinationen, also die überzeugend und korrekt formulierte, aber objektiv falsche Darstellung von Fakten. Aufgrund des erleichterten Zugangs zu vielen generativen KI-Anwendungen unterscheiden sich die Vorkenntnisse der sie nutzenden Gruppen deutlich. Sie reichen von Personen mit gutem Vorwissen bis hin zu jenen mit wenig oder gar keinem Wissen über die „Faktentreue“ generativer KI. Kombiniert man die Nutzung von generativer KI mit dem „kritischen Wissen“ über diese Technologie, ergeben sich die folgenden vier Gruppen (siehe Abbildung 1):
Die gebildeten Gruppen unterscheiden sich dabei deutlich hinsichtlich ihres Alters. So zeigt sich, dass die Nutzenden im Durchschnitt viel jünger (unkritische Nutzende: 32 Jahre, kritische Nutzende: 36 Jahre) sind als die Nichtnutzenden (beide Gruppen über 50 Jahre).
Der Aussage, dass der Einsatz generativer KI stärker reguliert werden sollte, stimmt jeweils die Mehrheit der Personen mit „kritischem Wissen“ zu: 55 % der kritischen Nutzenden generativer KI äußern den Wunsch nach stärkerer Regulierung, unter den kritischen Nichtnutzenden sind dies sogar zwei Drittel (vgl. Abbildung 2). In der Gruppe ohne „kritisches Wissen“ sind es unter den Nichtnutzenden nur 47 %, die sich eine stärkere Regulierung wünschen. Am geringsten ist der Wunsch nach mehr Regulierung unter den unkritischen Nutzenden mit 39 % ausgeprägt. In letzterer Gruppe lehnt immerhin fast ein Fünftel eine stärkere Regulierung von generativer KI sogar ab. Unter den Nutzenden mit „kritischem Wissen“ sind dies mit 12 % anteilig nur etwa halb so viele.
Als eine konkrete Maßnahme zur Regulierung befürworten rund 63 % der Befragten eine Verpflichtung der Anbieter von generativen KI-Systemen dazu, dass ihre Systeme Quellen für generierte Inhalte kenntlich machen müssen, so wie es von einigen Anbietern wie beispielsweise bei der KI von „Brave Search“ bereits standardmäßig umgesetzt ist (heise+ 2024). Über die hier betrachteten Nutzungsgruppen hinweg ergibt sich ein ganz ähnliches Bild wie bei dem Wunsch nach stärkerer Regulierung allgemein. So stimmen dieser Aussage 69 % der kritischen Nutzenden zu und sogar 84 % der kritischen Nichtnutzenden gegenüber nur 39 % der unkritischen Nutzenden und 56 % der unkritischen Nichtnutzenden.
Es zeigt sich also, dass der Wunsch nach Regulierung stärker von der kritischen Auseinandersetzung mit und dem Wissen über generative KI und weniger von der tatsächlichen Nutzung getrieben wird. Personen, die wissen, dass generative KI faktisch falsche Ergebnisse erzeugen kann, egal ob Nutzende oder nicht, stehen dabei einer Regulierung deutlich positiver gegenüber als diejenigen, die das nicht wissen.
Fazit
Die Ergebnisse deuten darauf hin, dass der Wunsch nach stärkerer Regulierung nicht in erster Linie von einer vagen Angst vor einem „Mythos KI“ getrieben ist. So sprechen sich nicht diejenigen Personen am häufigsten für stärkere Regulierung aus, die generative KI am wenigsten kennen und nutzen, sondern vielmehr diejenigen Befragten mit „kritischem Wissen“ über generative KI. Ein Grund dafür könnte sein, dass Menschen mit „kritischem Wissen“ Zweifel daran haben, dass unreglementierte KI das nötige Maß an Transparenz, Sicherheit und Grundrechtsschutz gewährleistet, das den potenziell riskanten Auswirkungen gerecht wird. Regulierungsmaßnahmen, ob bestehende oder zu verabschiedende, sollten daher der Bevölkerung zusammen mit den Grundlagenkenntnissen über diese Technologie nahegebracht und der Hintergrund erklärt werden. Wer potenzielle Risiken technischer Möglichkeiten nicht kennt, wird sich auch kaum für deren Regulierung interessieren, welche bestenfalls diese Risiken minimiert. Gleichzeitig gilt es, auch die bereits gut Informierten über neue Entwicklungen und konkrete Regulierungsmaßnahmen auf dem Laufenden zu halten. Ziel sollte es dabei nicht sein, in eine Gefahrenerzählung zu verfallen, sondern vielmehr das grundsätzliche Verständnis von KI zu erhöhen und zum kritischen Hinterfragen zu ermutigen.
Eine tiefergehende Betrachtung des Zusammenspiels von Nutzung und spezifischen KI-Kompetenzen wird in einer demnächst erscheinenden bidt-Studie erfolgen.
Die vom bidt veröffentlichten Blogbeiträge geben die Ansichten der Autorinnen und Autoren wieder; sie spiegeln nicht die Haltung des Instituts als Ganzes wider.