WORKING PAPER

Philosophische Überlegungen zur Verantwortung von KI:
Eine Ablehnung des Konzepts der E-Person

Publikation
Von Klaus Staudacher (bidt Forschung) | Prof. Julian Nida-Rümelin (LMU München, bidt-Direktorium)

Wer ist verantwortlich, wenn durch den Einsatz Künstlicher Intelligenz Schaden entsteht? Können Maschinen überhaupt Verantwortung übernehmen? Dieses Working Paper soll zeigen, dass Verantwortung ein Maß an Vernunft, Freiheit und Autonomie voraussetzt, über das auch komplexe KI-Systeme auf absehbare Zeit nicht verfügen werden.

Download Working Paper

Das Verhalten von Maschinen ist nicht umfassend vorhersehbar und kontrollierbar. Bei ihrem Einsatz kann es dazu kommen, dass im Schadensfall nicht zu klären ist, welcher der beteiligten menschlichen Akteure einen Fehler gemacht hat. Dadurch ergibt sich die Frage, ob in solchen Fällen der Schaden nicht auch der Maschine selbst zugerechnet werden sollte, zum Beispiel durch die Einführung der rechtlichen Kategorie einer „elektronischen Person“.

Gegen das Konzept einer E-Person und ganz generell gegen eine solche Art der Verantwortungszuschreibung sprechen jedoch grundsätzliche Bedenken.

Das Working Paper stellt eine eigene Konzeption vor. Zudem setzt es sich mit einigen Aspekten der Position von Matthias auseinander, der in seinem Buch „Automaten als Träger von Rechten“ für die Verantwortlichkeit bestimmter Formen von KI argumentiert.

Das Wichtigste in Kürze

Vor dem Hintergrund immer größerer Fortschritte bei der Konzipierung und Entwicklung komplexer KI-Systeme wird seit einiger Zeit sowohl von Juristinnen und Juristen wie von Philosophinnen und Philosophen die Frage aufgeworfen, ab welchem Grad von Autonomie oder zumindest Eigenständigkeit Maschinen für ihr Verhalten moralisch und vor allem auch juristisch verantwortlich gemacht werden können bzw. sollten. Beziehen sich manche Beiträge zu dieser Thematik ausdrücklich auf (aus Literatur oder Film bekannte) Science-Fiction-Szenarien, erörtern andere AutorInnen den rechtlichen Status von bereits jetzt oder in Zukunft real existierender KI im Hinblick auf deren zivil- und sogar strafrechtliche Haftbarkeit. Darüber hinaus wird im Hinblick auf Maschinen, deren Verhalten nicht umfassend vorhersehbar und kontrollierbar ist, auch das Problem der sog. „Verantwortungslücke“ diskutiert.

Zu einer solchen Lücke kann es beim Einsatz komplexer KI-Systeme kommen, wenn bei einem Schadensfall nicht zu klären ist, welcher der beteiligten menschlichen Akteure (ForscherInnen, KonstrukteurInnen, ProgrammiererInnen, TrainerInnen, BetreiberInnen) einen Fehler gemacht hat. Es erhebt sich daher die Frage, ob in solchen Fällen der Schaden nicht auch der Maschine selbst zugerechnet werden sollte. Ganz in diesem Sinne hat das Europäische Parlament gefordert, zumindest in Bezug auf die „ausgeklügeltsten autonomen Roboter“ die Einführung der rechtlichen Kategorie einer „elektronischen Person“ zu prüfen. Diese wäre „für den Ausgleich sämtlicher von ihr verursachter Schäden verantwortlich“, wobei die Schadensregulierung durch einen von „Herstellern, Programmierern, Eigentümern und Nutzern“ zu stiftenden Haftungsfond ermöglicht werden soll. Selbst wenn durch ein geeignetes Versicherungssystem gewährleistet wäre, dass Opfer auf diese Weise adäquat entschädigt werden könnten, sprechen gegen das Konstrukt einer E-Person und ganz generell gegen eine solche Art der Verantwortungszuschreibung doch grundsätzliche Bedenken.

Wie dieses Paper zeigt, setzt Verantwortung ein Maß an Vernunft und Freiheit und, damit zusammenhängend, auch an Autonomie voraus, über das selbst komplexe KI-Systeme auf absehbare Zeit nicht verfügen werden. Gleichzeitig soll deutlich gemacht werden, dass düster-pessimistische ‚Terminator-Prognosen‘ bezüglich der Gefahren durch KI unbegründet sind. Das heißt nicht, dass die Verwendung von KI und ganz allgemein der voranschreitende Prozess der Digitalisierung keine Risiken birgt; aber diese bestehen nicht darin, dass Maschinen anstreben könnten, die Menschheit zu beherrschen oder gar zu vernichten.

Ressourcen

Working Paper

Philosophische
Überlegungen zur
Verantwortung von KI

Download PDF
Forschungsprojekt

Zum Verhältnis von
Rechtspolitik und Ethik
in der Digitalisierung

Link zum Projekt

AnsprechpartnerInnen

Zum Working Paper
Klaus Staudacher

Wissenschaftlicher Referent
Forschung

Für Presseanfragen
Margret Hornsteiner

Abteilungsleiterin
Dialog

Weitere Beiträge

BLOG

The need for responsible innovation is growing. The RoboTIPS project aims to develop a trustworthy system for social robot accident investigation.

INTERVIEW

Wird Künstliche Intelligenz bald den Menschen überholen und ihm seine Arbeit nehmen? Und welche wirtschaftlichen und ethischen Herausforderungen sind damit verbunden? Nachgefragt bei Experten aus dem bidt-Direktorium.

Alle Publikationen

NEWSLETTER

Neuigkeiten zur digitalen
Transformation

Newsletter abonnieren