Ute Schmid ist Professorin für Angewandte Informatik/Kognitive Systeme an der Universität Bamberg und Mitglied im Direktorium des bidt. Sie engagiert sich seit Jahren dafür, einer breiteren Öffentlichkeit, insbesondere Kindern, Informatik näherzubringen. Im Interview spricht sie darüber, was bei KI oft falsch verstanden wird, wie intelligent die Künstliche Intelligenz eigentlich ist und warum es nicht die Technologie, sondern ihre zu gutgläubige Anwendung ist, die gefährlich sein kann.
Eine Studie des bidt zeigt, dass vielen Menschen Künstliche Intelligenz ein Rätsel ist. Was sagen Sie zu dem Ergebnis?
Es gehört viel Selbstreflektion dazu zu sagen: Ich verstehe KI eigentlich nicht. Das finde ich auch besser, als leichtfertig zu behaupten, man wüsste, was KI ist, da diese Annahme auch oft auf Missverständnissen beruht. Das ist der positive Blick auf das Ergebnis. Der negative ist, dass man trotz der zunehmenden Bemühungen von Politik und Wissenschaft, durch Vorträge und Publikationen über die Technologie zu informieren, offensichtlich bisher noch nicht die Mehrheit der Bevölkerung erreicht hat.
Ist es denn so wichtig, dass jeder etwas über KI weiß?
Ja, das denke ich schon. Unser ganzes Leben wird immer mehr durchzogen von Anwendungen Künstlicher Intelligenz, zum Beispiel im Gesundheitsbereich, bei Versicherungen, bei der Einstellung von Personen in Unternehmen, bei der Fahndung nach verdächtigen Personen usw. In der öffentlichen Kommunikation über KI nehme ich viel Hoffnungen wahr, die damit verbunden werden, aber auch Ängste, die manchmal das Falsche treffen.
Was wird zum Beispiel falsch verstanden?
Wenn man KI von außen sieht, also nicht Informatik mit Schwerpunkt Künstliche Intelligenz studiert hat, dann lässt sich nicht abschätzen, wo die algorithmischen Herausforderungen dabei liegen. Ich finde es immer wieder fast erschütternd, wenn Menschen voller Ehrfurcht vor einem Roboter stehen, der nur ein vorgefertigtes Programm abspielt, was nichts mit Künstlicher Intelligenz zu tun hat. Man kann ganz leicht in uns Menschen die Illusion erzeugen, dass das Gegenüber intelligent ist. In Wirklichkeit steckt oft nur ein einfacher Algorithmus dahinter.
Also ist KI weit mehr als ein Roboter, den man sehen kann und der sich vermeintlich intelligent verhält?
Ja, und vor allem ist nicht jedes Computerprogramm gleich KI. Aktuell wird immer wieder KI und Digitalisierung fast als gleichbedeutend betrachtet.
Was ist KI denn nun genau? Und wie intelligent ist eigentlich die Künstliche Intelligenz?
Die griffigsten Definitionen von KI sind die, bei denen vermieden wird, den Begriff Intelligenz zu nutzen, der in verschiedenen Kontexten ja durchaus verschiedene Bedeutung hat. Eine aus meiner Sicht sehr gute Definition ist:
Künstliche Intelligenz beschäftigt sich mit algorithmischen Lösungen für Probleme, die Menschen im Moment noch besser erledigen können.
Prof. Dr. Ute Schmid Zum Profil
Zum Beispiel war Schachspielen, bei dem man Menschen hohe Intelligenz zuschreibt, wenn sie dies auf Wettbewerbsniveau beherrschen, einfacher mit KI-Methoden zu lösen, als es das Mischen von Apfelschorle wäre.
Wichtig ist zu verstehen, dass KI-Anwendungen meist nur in einem sehr engen Bereich intelligent sind und vielleicht sogar „superhuman intelligence“ aufweisen. Zum Beispiel ein Algorithmus, der sehr schnell einschätzen kann, ob man jetzt bremst oder nicht – vielleicht sogar besser und zuverlässiger als der Mensch –, aber er hat eben keine allgemeine Intelligenz, wie es oft unterstellt wird. Das heißt, er kann nicht auch noch Zeitungsartikel lesen und verstehen oder ein neues Kartenspiel lernen.
Wenn ein Mensch bestimmte Dinge kann, zum Beispiel die schriftliche Subtraktion, dann gehen wir meist zurecht davon aus, dass dieser Mensch auch andere kognitive Aufgaben einer gewissen Komplexität beherrscht. Das ist bei KI-Programmen nicht so. Man könnte fast sagen, sie sind Fachidioten. Man spricht hier von sogenannter „schwacher KI“ im Gegensatz zu der zum Beispiel aus Science-Fictions bekannten starken KI, die über allgemeine Fähigkeiten verfügt und ein eigenes Bewusstsein und einen eigenen Willen hat.
Könnten Sie ein Beispiel für gelungene KI nennen?
Sehr beeindruckend war, als IBMs Frage-Antwort-System Watson die Quizsendung Jeopardy gewonnen hat. Das war 2011. Neben Standardtechnologien, etwa aus dem Bereich Information Retrieval, ist die im Kern des Systems umgesetzte Methode des Verstehens von natürlichsprachigen Text eine beeindruckende Demonstration von Methoden der Sprachverarbeitung. Diese Ansätze gehen weit über einfache Mustererkennung hinaus, bei der ein System stur auf ein Lautmuster oder eine Buchstabenfolge reagiert.
Ansonsten sind natürlich im Bereich Deep Learning einige Entwicklungen sehr beeindruckend. Das war zum Beispiel der Fall, als es Mitarbeitern von Google Brain 2012 gelang, mittels Deep Learning das Bild einer Katze zu erkennen. Aber, um wieder auf schwache versus starke KI hinzuweisen: Nur weil das Programm das Bild einer Katze erkennt, erkennt es zum Beispiel noch lange nicht den Unterschied zwischen einem Stopp-Schild und einem Vorfahrt-Achten-Schild.
Sie haben vorhin angesprochen, dass Sie auch Ängste wahrnehmen, die bei KI wach werden. Sind diese berechtigt?
Ja, aber auf eine andere Art als viele denken. Häufig werden Terminator-Fantasien entworfen, die auf der Idee beruhen, es gäbe diese allgemeine Künstliche Intelligenz, die dann über viele Bereiche hinweg intelligent agiert. So kommt die Angst auf, dass KI einmal über unser Leben bestimmen würde, weil sie klüger sei als der Mensch.
Das Problem, dass KI ein eigenes Bewusstsein und Intentionalität entwickelt, sehe ich nicht. Ich sehe das hauptsächliche Problem eher im unreflektierten und gutgläubigen Anwenden von KI.
Prof. Dr. Ute Schmid Zum Profil
Da haben wir bereits einige Beispiele gesehen: Etwa als Amazon einen auf Maschinellem Lernen basierenden Algorithmus nutzte, um Bewerbungen vorzusortieren, bei dem Frauen diskriminiert wurden. Das hat das Unternehmen natürlich nicht absichtlich gemacht, aber sie waren beim Training des Entscheidungsalgorithmus naiv und haben sich einen sogenannten „sampling bias“ eingehandelt. Das heißt, sie haben die Daten genutzt, die auf den bisherigen Einstellungsentscheidungen basierten.
Im Moment machen viele Unternehmen eine Lernkurve durch.
Prof. Dr. Ute Schmid Zum Profil
Sie fangen an zu erkennen, was passieren kann, wenn man zu viel Vertrauen in maschinengelernte Modelle hat.
Erstens gilt, dass ein aus Daten gelerntes Modell, das ja über diese Daten auf neue Fälle generalisiert, nicht fehlerfrei sein kann. Selbst bei einem geschätzten Fehler von nur einem Promille, würde so ein System bei jedem tausendsten Fall einen Fehler machen.
Allmählich wird auch verstanden, dass die Datenqualität einen sehr großen Einfluss auf die Qualität des Modells hat, das mit diesen Daten gelernt wurde. Das bedeutet auch, dass die ursprüngliche Hoffnung, Deep Learning würde Arbeit und Geld einsparen, da man ja einfach nur Rohdaten in einen Lernalgorithmus eingeben muss und dadurch fehlerfreie, autonome Entscheidungsmaschinen erhält, enttäuscht wird. Um ausreichend Daten in hoher Qualität zu erhalten, mit denen man die Chance hat, auch gute Modelle zu lernen, muss man möglicherweise sehr viel Arbeit und Geld investieren
Sie engagieren sich ja bereits, um einer breiteren Öffentlichkeit KI nahezubringen. Welche Formate der Wissenschaftskommunikation funktionieren gut?
Ich habe sehr gute Erfahrungen gemacht mit Vorträgen mit einer relativ homogenen Zuhörerschaft mit einer Größe bis zu 50, maximal 80 Personen, sodass man noch interagieren, auf spezifische Fragen eingehen und sie diskutieren kann. Das funktioniert mit Jugendlichen, mit Lehrkräften und auch mit der sogenannten interessierten Öffentlichkeit.
Es gibt auch immer wieder Zeitungsbeilagen über KI, die gut gemacht sind, aber mein Eindruck ist, dass ein reines Durchlesen von Texten umso mehr Raum für Missverständnisse lässt, je weiter weg die Leserinnen und Leser von der Informatik sind.
Sie machen sogar Technikkurse für Kinder. Ist auch KI ein Thema, das man schon Kindern vermitteln kann oder sollte?
Ja, das denke ich tatsächlich. Man kann grundlegende KI-Algorithmen durchaus auf eine kindgerechte Art vermitteln.
Aktuell entwickele ich zusammen mit einem Doktoranden und in Kooperation mit einer Firma Unplugged-Spiele zu verschiedensten KI-Themen für Kinder im Vorschulalter bis zur 5., 6. Klasse, die demnächst in Produktion gehen.
Kinder sind oft sehr offen, wenn es um digitale Technologien geht – häufig sogar zu kritiklos, während ältere Menschen manchmal vielleicht eher zu kritisch sind. Gerade bei Kindern, die ja auch sehr neugierig sind, wie Dinge funktionieren, hat man eine große Chance, sie auf dem Weg in ihre digitale Souveränität von vornherein auch mit Methoden der KI vertraut zu machen, sodass sie später hoffentlich besser bewerten können, wo Nutzen und Risiken liegen.
Lesetipps zu KI
Ute Schmid empfiehlt für Einsteiger ein Taschenbuch der beiden KI-Wissenschaftler Günter Görtz und Bernhard Nebel.
- Günter Görtz und Bernhard Nebel: Künstliche Intelligenz. S. Fischer Verlag, Frankfurt 2003
Leider gibt es das Buch nicht in einer neueren Auflage, sodass die aktuellen Entwicklungen, gerade aus dem Bereich Maschinelles Lernen, nicht berücksichtigt sind. Die grundlegenden Vorannahmen, Fragestellungen und Methoden sind aber auch heute noch gültig.
Außerdem ein guter Einstieg in die Thematik:
- Gary Marcus und Ernest Davis: Rebooting AI. Building Artificial Intelligence We Can Trust. Pantheon, New York 2019
An Jugendliche ab 12 Jahren, „die eher aus der Programmierecke kommen“, wie Ute Schmid sagt, richtet sich:
- Ute Schmid, Michael Siebers, Katharina Weitz: Künstliche Intelligenz selber programmieren für Dummies. WILEY-VCH Verlag, Weinheim 2019
Webangebote zu KI
„The Elements of AI“ ist ein kostenfreier Onlinekurs, der von der Universität Helsinki entwickelt wurde und unter der Schirmherrschaft des Bundeswirtschaftsministeriums auch auf Deutsch angeboten wird.
Das Bundesforschungsministerium informiert auf verschiedenen Webseiten über Künstliche Intelligenz.