Glossar
TECHNOLOGIEFELDER

Künstliche Intelligenz

INHALT

Definition und Abgrenzung

Eine weit akzeptierte Definition von Künstlicher Intelligenz (KI) ist: Künstliche Intelligenz befasst sich mit der Entwicklung von Computeralgorithmen für Probleme, die Menschen im Moment noch besser lösen können [1]. Diese Definition umgeht bewusst die Verwendung des Begriffs Intelligenz. Die alltagspsychologische Verwendung des Begriffs verbindet mit Intelligenz gemeinhin abstrakte, höhere kognitive Leistungen. Wir bezeichnen eine Person als intelligent, wenn sie sehr gut Schach spielt oder in Physik promoviert hat. Wenig beeindruckend ist es, wenn jemand fehlerfrei Katzen erkennt, einen Turm aus Bauklötzen baut, der nicht einstürzt, einen Zeitungsartikel in einem Satz zusammenfasst oder eine Textaufgabe aus einem Rechenbuch der dritten Klasse löst. Letztere Leistungen sind jedoch ungleich schwieriger in Algorithmen zu fassen als die erstgenannten.

Künstliche Intelligenz ist ein Teilgebiet der Informatik und wird traditionell der Angewandten Informatik zugerechnet. Zu den wichtigsten Themengebiete der KI gehören: Wissensrepräsentation und Inferenz, heuristische Suche und Planen sowie Maschinelles Lernen. Wesentliche Anwendungsgebiete sind: Verarbeitung natürlicher Sprache, Bild- und Szenenanalyse, intelligente Robotik und Spiele [2].

KI-Forschung hat innerhalb der Informatik Bezüge insbesondere zu Logik, Komplexitätstheorie und deklarativer Programmierung sowie zu benachbarten Anwendungsbereichen wie Bildverarbeitung und Robotik. Wie Informatik allgemein ist KI-Forschung sowohl mathematisch als auch ingenieurswissenschaftlich geprägt. KI-Forschung hat aber zusätzlich erkenntniswissenschaftliche Bezüge: Sie liefert formale Methoden für generative Theorien menschlichen intelligenten Verhaltens: So wie physikalische Theorien mathematisch formalisiert werden, können Theorien über menschliche Informationsverarbeitung mittels Computersimulation präzisiert werden [3]. Aber auch die ingenieurswissenschaftliche KI orientiert sich oft an menschlichem intelligentem Verhalten und betreibt damit „Psychonik“ analog zur Bionik in den Ingenieurswissenschaften [4]. Erkenntnisse über menschliches Problemlösen werden als Inspiration für die Entwicklung neuer Algorithmen genutzt. Es besteht aber nicht der Anspruch, dass diese Algorithmen nach ähnlichen Prinzipien funktionieren wie bei Menschen.

Der größte Teil der KI-Forschung hat den Fokus auf der Entwicklung von Algorithmen und Programmen für eingeschränkte Problemfelder. Man spricht hier auch von schwacher KI. Im Gegensatz dazu hat die starke KI den Anspruch, allgemeines intelligentes Verhalten nachzubauen. Das Alltagsverständnis von KI basiert häufig auf der fälschlichen Interpretation eines schwachen KI-Systems als stark. Wir unterstellen einem KI-System, das verschiedene Arten von Tieren aus Kamerabildern erkennen kann, automatisch, dass es auch etwas über diese Tiere weiß, und auch, dass es andere Dinge, zum Beispiel Pflanzen oder Autos, erkennen kann. Dies ist aber nicht der Fall. Wir schreiben unsere Art von Intelligenz unzutreffenderweise auch einem KI-System zu, wie wir dies ja auch mit unserem menschlichen Gegenüber tun [5]. Die meisten Forscherinnen und Forscher gehen davon aus, dass für eine allgemeine Intelligenz Intentionalität und Bewusstsein notwendig sind. Ob diese Ingredienzien menschlicher Intelligenz je so gut verstanden werden, dass sie als Computerprogramm formulierbar sind, ist eine offene Frage.

Allgemein gilt, dass man ein Problem sorgfältig analysieren sollte, bevor man KI-Methoden anwendet. Wenn das Problem mit Standardalgorithmen, wie sie in Lehrbüchern zum Thema Algorithmen und Datenstrukturen zu finden sind, lösbar ist, sollte man solche verwenden. Bei diesen Algorithmen ist sicher, dass eine korrekte Lösung gefunden wird. KI-Algorithmen sind dagegen überwiegend nur mehr oder weniger gute Annäherungen an die gewünschte Lösung. Man braucht KI-Algorithmen entweder, wenn ein Problem so komplex ist, dass ein Standardalgorithmus keine Lösung in vertretbarer Zeit liefern könnte, oder wenn es nicht möglich ist, ein Problem vollständig formal zu beschreiben. Im ersten Fall nutzt man heuristische Methoden, im zweiten Fall maschinelles Lernen.

Geschichte

Die Idee, dass Menschen selbst in der Lage sind, künstliche Wesen zu erschaffen, die menschenähnlich sind, geht weit in die Menschheitsgeschichte zurück – vom antiken Homunculus bis zu Mary Shelleys Roman Frankenstein. Sicher der wichtigste Wegbereiter und Vordenker der KI ist Alan Turing. In seinem Aufsatz Computing machinery and intelligence [6] formulierte er den Turing-Test (ursprünglich imitation game): Ein Mensch kommuniziert mit zwei nicht sichtbaren Gesprächspartnern, von denen einer ein Mensch und einer eine Maschine ist. Gelingt es dem menschlichen Urteiler nicht, zu entscheiden, wer Mensch und wer Maschine ist, so gilt der Test als bestanden. Allerdings prüft der Test nur funktionale Äquivalenz von Mensch und KI-System, also die Antworten, nicht aber die zugrunde liegenden Informationsverarbeitungsprozesse. Dies wurde insbesondere im Gedankenexperiment des Chinesischen Zimmers von John Searle kritisiert [7]. In der kognitionswissenschaftlichen Forschung werden dagegen algorithmische Modelle detailliert mit empirischen Daten verglichen [3].

Der Beginn der KI-Forschung wird auf das Jahr 1956 datiert. Der Informatik-Pionier John McCarthy organisierte im Sommer 1956 die Dartmouth Conference – ein Treffen von Wissenschaftlern, die davon überzeugt waren, dass jeder Aspekt menschlicher Intelligenz so präzise beschrieben werden könnte, dass dieser mit einem Computerprogramm simuliert werden kann. Bereits in den Anfängen der KI entstanden drei Richtungen, die sich bis heute in den verschiedenen Forschungsrichtungen zeigen: eine auf formale Logik aufbauende KI mit starken Bezügen zur Erkenntnisphilosophie, vertreten durch John McCarthy in Stanford; die kognitive KI mit dem Anspruch, menschliches intelligentes Verhalten nachzubilden, vertreten durch die Nobelpreisträger Allen Newell und Herbert Simon an der Carnegie-Mellon-Universität in Pittsburgh; sowie eine ingenieurswissenschaftlich orientierte KI mit Perspektive auf innovative Anwendungen, vertreten durch Marvin Minsky am MIT (zu den frühen Vertretern der KI siehe [8]). Einer der ersten und prägendsten Vertreter der KI in Deutschland ist Wolfgang Bibel, der die Bezeichnung Intellektik bevorzugt.

Das zentrale Ziel der frühen KI-Forschung war die algorithmische Umsetzung typisch menschlicher Leistungen wie Problemlösen, Lernen, Bildverstehen, Sprachverstehen, Übersetzung oder Schachspielen. Für alle Bereiche entstanden schnell Computerprogramme, die große Erwartungen an weitere Forschungsergebnisse weckten (eine Sammlung früher Arbeiten findet sich in [9]). Allerdings stellte der von James Lighthill 1972 für den Britischen Wissenschaftsrat publizierte Bericht nüchtern fest, dass die bestehenden Arbeiten vermuten ließen, dass KI nie über die Lösung von Spielproblemen hinauskäme. Damit wurde der erste sogenannte KI-Winter ausgelöst. Das öffentliche Interesse nahm ab und KI-Projekte hatten kaum die Chance auf Drittmittelförderung. In den 1980er-Jahren hatte die KI-Forschung ihren zweiten Höhenflug mit der Forschung zu Expertensystemen. Es entstanden effiziente Algorithmen zum Ziehen von Schlussfolgerungen; Lisp und Prolog wurden als spezielle KI-Programmiersprachen weiterentwickelt und es wurde – wie heute im Kontext von Deep Learning – spezielle Hardware für effizientere Verarbeitung entwickelt, insbesondere die Lisp Machine. Der zweite KI-Winter wurde vor allem durch das sogenannte Knowledge Engineering Bottleneck ausgelöst – die Erkenntnis, dass menschliches Wissen nur in Teilen explizit verfügbar ist und formal repräsentiert werden kann. Große Bereiche menschlichen Wissens, insbesondere perzeptuelles Wissen und hochautomatisierte Handlungsroutinen sind implizit und können nicht oder nur unzureichend mit Methoden der Wissensakquisition erfasst werden. Sogenanntes commom sense knowledge, das Menschen beim Ziehen von Schlüssen fast immer ganz automatisch mit nutzen, ist ebenfalls kaum oder nur unvollständig in Form expliziten Wissens repräsentierbar. Beispielsweise wissen Menschen, dass das Aufheben eines Stifts keinen Einfluss auf die Position eines etwas entfernt ebenfalls auf dem Schreibtisch liegenden Blocks hat. Die Unmöglichkeit der expliziten Berücksichtigung aller Aspekte, die durch eine Aktion nicht geändert werden, wird als Frameproblem bezeichnet. Ein weiteres Beispiel ist das schon Kindern verfügbare qualitative Wissen über physikalische Gesetze. So wird ein Kind ab einem gewissen Alter nicht versuchen, einen Turm zu bauen, bei dem eine Kugel auf eine Pyramide gesetzt wird – ein KI-System hat dieses allgemeine Wissen dagegen nicht [10]. Forschende im Bereich der wissensbasierten, symbolischen KI dominierten die Forschung bis zum zweiten KI-Winter. Ein großer Erfolg für die KI-Forschung war immerhin im Jahr 1994 der Sieg von IBMs Schachcomputer Deep Blue gegen den damaligen Schachweltmeister Kasparov. Dieser Durchbruch im Computerschach lag teilweise an der leistungsstärkeren Hardware, aber auch an den genutzten KI-Algorithmen zur heuristischen Suche.

Bereits seit Beginn der KI-Forschung gab es aber auch Wissenschaftlerinnen und Wissenschaftler, die sich mit dem Thema Maschinelles Lernen befassten. Ab Ende der 1990er wurden einige Fortschritte, vor allem im Bereich statistisches maschinelles Lernen, erzielt und dieses Teilgebiet der KI gewann gegenüber den symbolischen, logikbasierten Arbeiten immer mehr an Gewicht. Allerdings flaute zu dieser Zeit das Interesse an KI stark ab, es begann der sogenannte Winter ohne Ende. In dieser Zeit wurden keine Lehrstühle mehr mit dieser Denomination besetzt, stattdessen sprach man lieber von Kognitiven Systemen oder Intelligenten Systemen. Im Jahr 2011 gewann IBMs Watson die Quizshow Jeopardy. Zur Beantwortung natürlichsprachiger Fragen wurden bewährte Techniken der semantischen Informationsverarbeitung mit Methoden des Information Retrieval (wie sie zur Suche nach Webseiten eingesetzt werden) genutzt. Watson wurde nicht als KI-System bezeichnet, sondern als smart machine, die mit Methoden des cognitive computing arbeitet [11]. Eine vom KI-Forscher Nils Nilsson verfasste ausführliche Darstellung der Geschichte der KI bis zu dieser Zeit findet sich in [12].

Ausgelöst durch beeindruckende Erfolge von tiefen neuronalen Netzen, vor allem bei der Bildklassifikation und der Sprachverarbeitung, erlebt das Gebiet KI seit etwa 2015 einen neuen Sommer. Aktuelle Entwicklungen zur sogenannten Erklärbaren KI bringen eine Renaissance der symbolischen KI in Kombination mit datenintensivem maschinellem Lernen.

Anwendung und Beispiele

Jede Epoche der KI-Forschung hat Methoden hervorgebracht, die bis heute genutzt und weiterentwickelt werden. Viele Methoden sind ins Standardrepertoire der Informatik übergegangen. Beispielsweise werden in der KI entwickelte Suchverfahren erfolgreich im Bereich Operations Research und Logistik angewendet. Algorithmen zum Ziehen von Schlussfolgerungen finden sich in heutigen Systemen zum automatischen Beweisen. Dieser Beobachtung trägt Marvin Minskys KI-Definition Rechnung: KI beschäftigt sich mit Computerproblemen, die noch nicht gelöst sind. Die IT-Journalistin und Internetpionierin Esther Dyson stellte in 1990er-Jahren fest, dass die erfolgreichsten Anwendungen von KI-Technologien die sind, bei denen die KI-Methoden wie Rosinen in einem Rosinenbrot in Standardsoftware eingebettet sind. Die Rosinen benötigen nicht viel Platz, haben aber großen Nährwert. Zu den bekanntesten Anwendungen der frühen Jahre gehören: der Chatbot ELIZA von Josef Weizenbaum (1966), der nur auf einfacher Mustererkennung basierte, aber den Eindruck erweckte, einen zu verstehen [13]; der in den 19060er-Jahren in Stanford entwickelte, erste mobile Roboter Shakey [14]; und das in den 1970er-Jahren umgesetzte Expertensystem Mycin zur Diagnose bakterieller Erkrankungen [15].

Beachtung fanden auch die seit 1997 stattfindenden Meisterschaften im Roboterfußball, der Einsatz von neuronalen Netzen zur Dokumentenanalyse seit Ende der 1990er, beispielsweise bei der Deutschen Post [16], oder der DARPA Grand Challenge, bei dem 2005 der umgebaute VW Touareg Stanley des Teams um Sebastian Thrun gewann. KI-Planungsalgorithmen finden sich in der industriellen Fertigung [17] genauso wie als Komponenten der Mars-Roboter [18]. Aktuell finden vor allem Anwendungen von Deep Learning Beachtung.

Kritik und Probleme​​

Mehr als viele andere Forschungsrichtungen ist KI-Forschung geprägt von einem Wechselspiel von zu großen Versprechungen der Forschenden und unrealistischen Vorstellungen und übertriebenen Erwartungen von Öffentlichkeit und Wirtschaft, gefolgt von Ernüchterung sowie einem Einbruch an Interesse außerhalb der engen, eigenen Disziplin. Der aktuelle KI-Hype folgte auf eine lange Phase, in der das Thema von anderen Teilgebieten der Informatik wenig ernst genommen wurde und in der Öffentlichkeit unbeachtet blieb. KI-Forschung fand in dieser Zeit weiterhin statt, aber vor allem als Grundlagenforschung. Noch nie wurden KI-Methoden so schnell in die Praxis gebracht wie aktuell. KI-Forscherinnen und -Forscher werden – ähnlich wie Atomphysiker in der Mitte des letzten Jahrhunderts – damit konfrontiert, dass ihre Forschungsergebnisse auf einmal praktisch eingesetzt werden. KI-Systeme können in vielen Bereichen zur Entlastung von Menschen und zur Bewältigung komplexer Aufgaben beitragen. Allerdings sollte genau überlegt werden, auf welche Weise KI-Systeme umgesetzt werden. So kann ein KI-System in der Altenpflege Pflegekräfte entlasten und ihnen mehr Zeit für die Betreuung geben oder aber zu weiterem Personalabbau führen und selbst die emotionale Interaktion an Roboter delegieren. Entsprechend ist interdisziplinäre Forschung sowie ein gesamtgesellschaftlicher Dialog notwendig, um zukünftige KI-Systeme zum Wohle der Menschen zu gestalten (Digitale Ethik).

Menschen haben einerseits eher irreale Ängste und andererseits unbegründetes Vertrauen in den Einsatz von KI-Systemen. So existiert die Befürchtung, dass KI-Systeme klüger werden als wir Menschen und dann die Macht übernehmen könnten. Es ist aber eher unwahrscheinlich, dass etwa ein autonomes Fahrzeug plötzlich einen eigenen Willen entwickelt, böse wird und das Auto gegen eine Wand steuert. Viel realer sind Gefahren wie Datensicherheit, etwa dass Hacker die Car2Car-Kommunikationen übernehmen und dafür sorgen, dass alle Autos bei Rot über die Kreuzung fahren. Bei datengetriebenen KI-Systemen gilt wie bei anderer datengetriebener Software, dass Fragen der Privatheit und Sicherheit von Daten sinnvoll geregelt werden müssen – sodass nützliche Anwendungen umsetzbar sind, aber auch so, dass Daten nicht unrechtmäßig genutzt oder eingesehen werden können (Datensouveränität).

Forschung

Wie sich die methodischen Schwerpunkte der KI über die Jahrzehnte entwickelt haben, ist anhand der wichtigsten wissenschaftlichen Tagungen und Journale nachvollziehbar. Die wichtigsten Tagungen, die offen für alle Gebiete der KI sind, sind die International Joint Conference on Artificial Intelligence (IJCAI, seit 1969, bisher nur einmal in Deutschland: 1983 in Karlsruhe) und die Tagung der Association for the Advancement of Artificial Intelligence (seit 1980). Die AAAI war ursprünglich die American Association of Artificial Intelligence und wurde 2007 umbenannt, da sie sich zur internationalen Dachorganisation der wissenschaftlichen KI entwickelt hat. Die wichtigste Zeitschrift ist die Artificial Intelligence.

Am bidt wird im internen Projekt „Mensch-KI-Partnerschaften für Erklärungen in komplexen soziotechnischen Systemen“ ein hybrides KI-Modell entwickelt, um Ursachen für Unfälle und Fehlfunktionen in technischen Systemen zu identifizieren. Dabei werden logische Kausalmodelle durch einen interaktiven Ansatz schrittweise adaptiert. Für einen gegebenen Fall wird eine aktuelle Ursachenanalyse aufgrund eines Ereignisprotokolls ermittelt und über eine Erklärungsschnittstelle an einen Experten oder eine Expertin kommuniziert. Diese können das Modell inspizieren und wenn nötig korrigieren. Dadurch entsteht über die Zeit ein immer genaueres Vorhersagemodell.

Das Projekt „Responsible Robotics (RRAI)“ beschäftigt sich mit ethischen und sozialen Aspekten des Einsatzes KI-basierter Roboter im Gesundheitswesen.

Das Projekt „Empowerment in der Produktion von morgen: Mixed Skill Factories und kollaborative Robotersysteme neu denken“ ist im Kontext der Industrie 4.0 verortet: Es untersucht neuartige Konzepte für die Kollaboration zwischen Menschen und KI-basierten Robotern in Fabriken.

Das Doktorandenprojekt „Human-like Perception in AI Systems“ zielt darauf, menschenähnliche Wahrnehmung in KI und die Verbesserung von menschlicher Wahrnehmung mittels KI zu ergründen.

Die Nachwuchsforschungsgruppe „AI Tools – Continuous Interaction with Computational Intelligence Tools“ erforscht, wie Künstliche Intelligenz so gestaltet werden kann, dass sie für den Nutzer verständlich ist und von ihm zu seinen Zwecken eingesetzt werden kann.

Quellen

[1] Elaine Rich. Artificial Intelligence. McGraw-Hill, 1983.

[2] Stuart Russell, Peter Norvig. Artificial Intelligence. A Modern Approach. 4. Auflage. Pearson, 2020.

[3] Allen Collins, Edward E. Smith. A Perspective on Cognitive Science. In: A Collins, Smith (Hrsg.). Readings in Cognitive Science. A Perspective from Psychology and Artificial Intelligence. Morgan Kaufmann, 1988.

[4] Ute Schmid. Cognition and AI. Künstliche Intelligenz, 22(1): 5–7, 2008.

[5] Daniel C. Dennett. Intentional systems. The Journal of Philosophy, 68(4), 87–106, 1972.

[6] Alan M. Turing. Computing Machinery and Intelligence. Mind, Volume LIX, Issue 236: 433–460, 1950.

[7] John R. Searle. Minds, Brains, and Programs. The Behavioral and Brain Sciences, (3), 417–457, 1980.

[8] Bruce G. Buchanan. A (Very) Brief History of Artificial Intelligence. AI Magazine 26(4): 53–60, 2005.

[9] Marvin Minsky (Hrsg.). Semantic Information Processing. MIT Press, 1968.

[10] Kenneth D. Forbus. Qualitative Reasoning about Physical Processes. 7th International Joint Conference on Artificial Intelligence: 326–330, 1981.

[11] John Kelly III and Steve Hamm. Smart Machine. IBM’s Watson and the Era of Cognitive Computing. Columbia University Press, 2013.

[12] Nils J. Nilsson. The quest for artificial intelligence. Cambridge University Press, 2009.

[13] Joseph Weizenbaum. ELIZA – A Computer Program For the Study of Natural Language Communication Between Man And Machine. Communications of the ACM, 9(1): 36–45, 1966.

[14] Benjamin Kuipers, Edward A. Feigenbaum, Peter E. Hart, Nils J. Nilsson (2017). Shakey: from conception to history. AI Magazine, 38(1), 88–103, 2017.

[15] Edward H. Shortliffe: Computer-Based Medical Consultations: MYCIN. Elsevier, New York, 1976.

[16] Marcus Pfister, Sven Behnke, Raúl Rojas. Recognition of Handwritten ZIP Codes in a Real-World Non-Standard-Letter Sorting System. Applied Intelligence, 12(1-2): 95–114, 2000.

[17] Christoph Legat, Birgit Vogel-Heuser. A configurable partial-order planning approach for field level operation strategies of PLC-based industry 4.0 automated manufacturing systems. Engineering Applications of Artificial Intelligence, 66, 128–144, 2017.

[18] John L. Bresina, Ari K. Jónsson, Paul H. Morris, Kanna Rajan. Activity Planning for the Mars Exploration Rovers. International Conference on Automated Planning and Scheduling (ICAPS): 40–49, 2005.

AUTORIN
Prof. Dr. Ute Schmid

Weitere Beiträge

Glossar: Algorithmus

Erfahren Sie im Glossar-Artikel von Alexander Pretschner mehr über Algorithmen.

Alle Glossar-Beiträge

NEWSLETTER

Neuigkeiten zur digitalen Transformation

Jetzt abonnieren
2021-07-28T18:13:18+02:00
Nach oben