| Aktuelles | Interview | Brauchen wir mehr gemeinwohlorientierte künstliche Intelligenz?

Brauchen wir mehr gemeinwohlorientierte künstliche Intelligenz?

Im Sinne von „Forschung im Dialog“ haben wir zwei Experten im Rahmen eines Interviews zusammengebracht, die uns mehr zum Einsatz von KI und Algorithmen, zum Wissensaufbau in der Bevölkerung und zu den Chancen von gemeinwohlorientierter KI erzählen können – ein Blick über den institutionellen Tellerrand mit Julia Gundlach, Co-Leiterin des Projekts „reframe[Tech] – Algorithmen fürs Gemeinwohl“ bei der Bertelsmann Stiftung, und Dr. Roland A. Stürz, Leiter des bidt Think Tank und Co-Autor des bidt-SZ-Digitalbarometers.

© kamiphotos / stock.adobe.com

Ohne konkrete Daten zum Wissen über künstliche Intelligenz (KI) und Algorithmen kann man nur Vermutungen zu der Frage anstellen: Wo stehen wir eigentlich in Deutschland? Das bidt und die Bertelsmann Stiftung haben hierzu zwei voneinander unabhängige Erhebungen durchgeführt. Während für das 2022 veröffentlichte bidt-SZ-Digitalbarometer Daten zu verschiedenen Themenbereichen der digitalen Transformation – wie zu digitalen Kompetenzen der Bevölkerung, aber auch zu KI – erhoben wurden, konzentrierten sich die 2018 und 2022 veröffentlichten Studien der Bertelsmann Stiftung ausschließlich auf KI und Algorithmen.

Frau Gundlach, Herr Dr. Stürz, wo wird KI als Querschnittstechnologie bereits eingesetzt?

Roland A. Stürz: Ein klassisches Beispiel ist der autonome Fahrassistent beim Auto. Ein anderes Beispiel sind auf Websites eingesetzte Chatbots zur Verbesserung des Kundendialogs. Unternehmen setzen aber auch in vielen anderen Bereichen verstärkt auf KI, zum Beispiel in der Logistik oder zur Erhöhung der Cybersicherheit.

Julia Gundlach: Tatsächlich fallen einem beim Wort KI diese sehr unternehmensnahen Beispiele ein. Das deckt sich auch mit unseren Beobachtungen bei der Bertelsmann Stiftung, dass KI und Algorithmen größtenteils aus wirtschaftlichen Interessen und Effizienzbestrebungen entwickelt und eingesetzt werden. Beispiele für gemeinwohlorientierte KI findet man in der Praxis weniger.

Was versteht man denn unter gemeinwohlorientierter KI?

Gundlach: Was der Begriff Gemeinwohl genau bedeutet, muss kontinuierlich gesellschaftlich ausgehandelt werden, ist also stark abhängig von Ort und Zeit. Allgemein gesagt, verstehen wir unter gemeinwohlorientierter künstlicher Intelligenz Anwendungen, die gesellschaftliche Herausforderungen adressieren und mehr als nur Profitbestrebungen verfolgen; zum Beispiel, wenn KI dazu beiträgt, Diskriminierung und Benachteiligung bestimmter Bevölkerungsgruppen zu verringern oder mehr Menschen am Leben in der Digitalgesellschaft teilhaben lässt. Für eine aktuelle Recherche zusammen mit dem Betterplace Lab über den Einsatz von gemeinwohlorientierten Algorithmen haben wir die Definition absichtlich stärker eingeschränkt und nur nach Beispielen gesucht, die von zivilgesellschaftlichen oder öffentlichen Akteuren entwickelt und eingesetzt werden.

Was wären konkrete Beispiele für KI, die dem Gemeinwohl dienen?

Stürz: Ich würde gemeinwohlorientierte KI nicht ganz so stark eingrenzen. Aus meiner Sicht ist im medizinischen Bereich eingesetzte KI zum Beispiel bei diagnostischen Verfahren zur Krebserkennung durchaus auch gemeinwohlfördernd, obwohl dahinter häufig private Unternehmen mit wirtschaftlichen Interessen stehen. Ähnliches gilt beispielsweise für die Reduktion von Leerfahrten in der Logistik oder den sparsamen Einsatz von Düngemitteln in der Landwirtschaft – Effizienz- und Gewinnstreben gehen hier Hand in Hand mit dem Gemeinwohl, indem knappe Ressourcen eingespart werden.

Gundlach: Bei den Beispielen muss meiner Meinung nach darauf geachtet werden, welche Rückkopplungseffekte entstehen und was mit den eingesparten Ressourcen geschieht: Wird die Behandlung von Patientinnen und Patienten „besser“ oder wird schlicht Krankenhauspersonal durch den Technologieeinsatz ersetzt? Man kann die Frage von Gemeinwohlorientierung nicht nur anhand der Technologie bewerten, sondern muss sich immer die soziale Einbettung anschauen. Wir haben für eine unserer aktuellen Recherchen die Definition so eng gehalten, weil wir beobachtet haben, dass die allermeisten KI-Anwendungen aus der Wirtschaft kommen. Daher haben wir uns gefragt, woran das liegt und ob es nicht auch gemeinwohlorientierte Anwendungen aus Zivilgesellschaft und dem öffentlichen Sektor gibt. Wir haben sehr wenige konkrete Beispiele gefunden, aber eines meiner Lieblingsbeispiele ist die algorithmenbasierte Kitaplatzvergabe, die seit 2017 in Steinfurt eingesetzt wird. Ein anderes Beispiel ist der Chatbot Ina des Integrationsamts Schleswig-Holstein, der in leicht verständlicher Sprache antworten kann – das erleichtert den vielen Menschen mit Leseschwierigkeiten den Zugang zu Informationen und Teilhabe deutlich.

Wie steht es denn überhaupt um das Wissen zur KI in der Bevölkerung?

Gundlach: Im Rahmen unserer Studien haben wir 2018 und 2022 ganz explizit das Wissen zu KI und Algorithmen im Rahmen einer Selbsteinschätzung abgefragt. Wir konnten feststellen, dass das Wissen über die vergangenen Jahre zugenommen hat: Während sich 2018 noch 41 Prozent der Befragten recht genaues oder ungefähres Wissen über Algorithmen zugeschrieben haben, waren es 2022 bereits 60 Prozent. Aber insbesondere in der Gruppe mit niedrigem formalem Bildungsabschluss und bei Menschen über 60 Jahre gibt es weiterhin ein hohes Unwissen.

Stürz: Wir sind zu ganz ähnlichen Ergebnissen im Rahmen des 2022 veröffentlichten bidt-SZ-Digitalbarometers gekommen, sowohl was die Abfrage von digitalen Kompetenzen ganz allgemein als auch das Wissen zu KI anbelangt. Auch wir sehen deutliche Unterschiede zwischen soziodemografischen Gruppen: Niedrig gebildete, einkommensschwächere, ältere Menschen schätzen ihre digitalen Kompetenzen, aber auch ihr Wissen zu KI deutlich schlechter ein als formal höher gebildete, einkommensstärkere und jüngere Menschen. Die Wissensschere in der Bevölkerung geht hier klar auseinander, es besteht also eine digitale Kluft.

Warum ist es denn überhaupt notwendig, KI-Wissen in der Gesellschaft aufzubauen?

Gundlach: Es ist wichtig, dass in der Bevölkerung ein Grundverständnis darüber herrscht, welche Auswirkungen der Einsatz von Algorithmen und KI hat – denn diese durchdringen immer mehr Lebensbereiche. Dafür müssen nicht jede und jeder programmieren können. Aber man sollte wissen, wo man überall mit Algorithmen und KI interagiert und welche Auswirkungen das haben kann. Für unser Projekt „reframe[Tech]“ bei der Bertelsmann Stiftung ist es entscheidend, dass insbesondere Personen aus der Politik und der öffentlichen Verwaltung Kompetenzen aufbauen.

Warum sprechen Sie gezielt diese Akteurinnen und Akteure an?

Gundlach: Technologieentwicklung muss sich stärker am Gemeinwohl ausrichten. Das bedeutet auch, dass Menschen, die von den Auswirkungen einer Technologie betroffen sind, an deren Entwicklung teilhaben sollten. Insbesondere Akteure in Schlüsselpositionen müssen die Wirkung und den Einfluss von Algorithmen und KI verstehen – und in diesem Zusammenhang auch die Tragweite ihrer Entscheidungen. Der öffentliche Sektor wird in Zukunft immer mehr KI-Anwendungen nutzen und Kontrollinstanzen aufbauen, die in den neuen europäischen Digitalgesetzen gefordert werden. Wir setzen mit unserem Projekt bei der Frage an: Welche Kompetenzen braucht es dafür? Immer mehr Wissensaufbau zu fordern, ist ja leicht. Aber man muss dann auch mal sagen: Was meint man damit konkret und wie baut man diese Kompetenzen auf?

Gibt es hier Nachholbedarf seitens der Politik, passende Angebote zu schaffen?

Stürz: Wenn wir uns mal konkret den Bereich der Weiterbildung in Deutschland ansehen – und dieser ist, gerade was das lebenslange Lernen anbelangt, sehr wichtig: In Deutschland ist der Weiterbildungsmarkt für Erwachsene relativ komplex, ebenso wie die dazugehörigen Förderungsstrukturen. Dieses Dickicht sollte seitens der Politik gelichtet werden, um hier den Markt transparenter zu gestalten. In Österreich gibt es für den Bereich der Erwachsenenbildung zum Beispiel seit einiger Zeit mit Ö-Cert einen Qualitätsrahmen mit Mindeststandards. Dieser hat zu einer nachhaltigen Professionalisierung der Weiterbildungsangebote beigetragen und gilt als Vorzeigeprojekt. Das könnte auch ein Best-Practice-Beispiel für Deutschland sein – natürlich auch, was den Ausbau von digitalen Kompetenzen und Wissen zu KI sowie Algorithmen in der Erwachsenenbildung anbelangt.

Gundlach: Neben dem stärkeren Kompetenzaufbau ist aus meiner Sicht nicht zu unterschätzen, wie wichtig positive Zukunftsvisionen sind: Wofür können wir KI, Algorithmen und digitale Tools ganz konkret nutzen? Hier sollte die Politik mit einer konkreten Vision aufzeigen, wohin die Reise gehen soll. In der Digitalstrategie der Bundesregierung ist das leider nicht passiert. Zudem ist es auch notwendig, mehr Räume und Anlässe zu schaffen, um über KI und deren Auswirkungen auf unsere Gesellschaft zu sprechen.

Stürz: Ich finde die Forderung sehr interessant, mehr Diskussionsräume für KI oder auch allgemein für den digitalen Wandel zu schaffen – und das heißt auch, Aspekte rund um gemeinnützige KI stärker in den Fokus zu rücken. Das würde die gesellschaftliche Debatte sicherlich stark voranbringen und auch dazu beitragen, dass Menschen sich eine Meinung zu KI überhaupt bilden. Hier sind ja viele noch recht indifferent.

Inwiefern das?

Gundlach: Wir hatten im Rahmen unserer Befragung nach Chancen und Risiken von KI und Algorithmen gefragt – ganz ähnlich wie ihr beim Digitalbarometer. Über 40 Prozent äußerten keine klare Meinung, ob nun die Chancen oder die Risiken überwiegen. Das ist bei solchen Umfragen schon sehr ungewöhnlich. Und bei denjenigen, die sich entscheiden konnten, überwogen die Risiken die Chancen.

Stürz: Auch beim Digitalbarometer kamen wir zu ganz ähnlichen Ergebnissen. Zudem konnten wir erkennen, dass höhere digitale Kompetenzen mit mehr Wissen über KI einhergehen. Und mehr Wissen führt zu einer stärkeren Betonung möglicher Chancen anstatt von Risiken. Sehr positiv werden übrigens medizinische KI-Anwendungen beim Erkennen und Behandeln von Krankheiten von den Befragten wahrgenommen. Aber für viele andere Bereiche wurden eher Risiken gesehen: beim Steuern von Fahrzeugen, bei der Pflege älterer Menschen oder bei Urteilen in Gerichtsverfahren.

Gundlach: Im Grunde ist es so: Wo geringe soziale Auswirkungen zu erwarten sind, da „kann“ der Computer auch eher alleine entscheiden. Dass wir auf Basis von Algorithmen personalisierte Werbung angezeigt bekommen, wird weitestgehend akzeptiert. Gleiches gilt für Programme zur Rechtschreib- oder Satzbaukontrolle – hier ist man ja eher für die Unterstützung dankbar. Aber in anderen Fällen sollte der Computer nicht alleine oder sogar mitentscheiden, zum Beispiel bei der Beurteilung der Rückfälligkeit von Straftätern oder der Planung von Polizeieinsätzen. Interessanterweise gibt es für die Gesichtserkennung im öffentlichen Raum mithilfe von KI eine relativ hohe Akzeptanz.

Welche Rolle spielt hier denn die mediale Berichterstattung? Dazu hat die Bertelsmann Stiftung geforscht.

Gundlach: Es ist spannend zu sehen, auf welche Themen sich Leit- und Fachmedien bei der Berichterstattung zu Algorithmen und KI überhaupt konzentrieren. Wir konnten feststellen, dass seit 2005 der Anteil gesellschaftspolitischer Themen am Diskurs stark abnimmt und gleichzeitig technische und wirtschaftliche Themen zunehmen. Interessant ist auch, wer in den Beiträgen zitiert und erwähnt wird: Vertreterinnen und Vertreter aus Politik, Verwaltung und Zivilgesellschaft kommen viel seltener vor als diejenigen aus der Wirtschaft. Es mangelt in der medialen Berichterstattung also an einer Vielfalt der Perspektiven. Um die ganze Breite des Diskurses zu KI und Algorithmen besser abzubilden, müssten Akteurinnen und Akteure aus Politik und Zivilgesellschaft mehr Berücksichtigung finden.

Besteht konkreter Handlungsbedarf?

Stürz: Natürlich, es besteht Handlungsbedarf! Man muss hier durch gezielten Wissensaufbau in der Bevölkerung, durch eine ausgeglichenere Medienberichterstattung und die Schaffung von Wissensräumen die öffentliche Meinungsbildung zu Digitalisierungsthemen und zu KI fördern. Was nicht passieren darf, ist, dass die Wissensschere weiter aufgeht – mit anderen Worten: Wir müssen verhindern, dass insbesondere ältere Menschen, aber auch einkommensschwache oder formal niedrig gebildete Menschen weiter abgehängt werden.

Gundlach: Das darf bei einem gesellschaftlich relevanten Thema wie der KI auf keinen Fall passieren. Forschung hierzu ist ungemein wichtig, um durch Zahlen und Fakten gesichertes Wissen für Handlungsempfehlungen zu schaffen. Auch wenn ihr beim Digitalbarometer bislang einen breiteren Ansatz zu digitalen Kompetenzen wählt und wir uns stärker auf KI und Algorithmen konzentrieren, gilt für beide Studien: Mehr Wissen zu KI und Algorithmen, mehr digitale Kompetenzen ermöglichen es Betroffenen, mit den Technologien besser umzugehen. Und das ist die Basis dafür, dass sich Technologieentwicklung stärker am Gemeinwohl ausrichten kann – und auch muss.

Herzlichen Dank für das Gespräch!

Das Gespräch führte Nadine Hildebrandt.

Julia Gundlach

Sie ist Co-Leiterin des Projekts „reframe[Tech]“ im Programm „Digitalisierung und Gemeinwohl“ bei der Bertelsmann Stiftung und verantwortet unter anderem den Arbeitsschwerpunkt zum gemeinwohlorientierten Einsatz von algorithmischen Systemen. Sie beschäftigt sich intensiv mit Anwendungsfällen, bei denen Algorithmen genutzt werden, um gesellschaftliche Probleme zu adressieren. Zuvor war sie für die internationale Vernetzung im Projekt „Forum Digitale Technologien“ am Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI) zuständig. Im Zuge ihres Masters in Public Policy an der Hertie School in Berlin hat sie ein Professional Year in der wirtschaftspolitischen Abteilung des Bundeswirtschaftsministeriums absolviert.

Dr. Roland A. Stürz

Er ist Abteilungsleiter Think Tank am bidt. Vor seiner Tätigkeit am bidt war er als wissenschaftlicher Referent am Max-Planck-Institut für Innovation und Wettbewerb in München und davor als wissenschaftlicher Mitarbeiter am Institut für Innovationsforschung, Technologiemanagement und Entrepreneurship der Ludwig-Maximilians-Universität München tätig. Roland A. Stürz studierte Betriebswirtschaftslehre an der LMU München und an der Copenhagen Business School. Er ist Diplom-Kaufmann, Master of Business Research und promovierter Betriebswirt. Er unterrichtet regelmäßig am Munich Intellectual Property Law Center einen Kurs zu Innovationspolitik. Seine Forschungsinteressen liegen in den Bereichen Innovationspolitik, digitale Transformation und Industrieevolution.