| Aktuelles | Nachbericht | Lessons Learned: bidt Werkstatt zur Verantwortung und Haftung von KI

Lessons Learned: bidt Werkstatt zur Verantwortung und Haftung von KI

Künstliche Intelligenz wird vielfach eingesetzt. Doch wer haftet, wenn KI irrt? Ergebnisse der bidt Werkstatt digital vom 10.12.2020.

© M. Dörr & M. Frommherz / stock.adobe.com

Der Einsatz, die weitere Entwicklung und die Komplexität neuer Technologien wie der Künstlichen Intelligenz werfen entscheidende Fragen auf: Wer haftet, wenn KI irrt? Und kann Künstliche Intelligenz, können Maschinen überhaupt Verantwortung übernehmen? Darüber diskutierten die beiden bidt-Direktoren Professor Eric Hilgendorf und Professor Julian Nida-Rümelin aus juristischer und philosophischer Perspektive mit der Verhaltensökonomin Anja Bodenschatz bei der bidt Werkstatt digital am 10. Dezember 2020.

Die Ergebnisse der Diskussion

Können Maschinen Verantwortung übernehmen?

  • Durch neue digitale Möglichkeiten schafft der Mensch keine neuen Akteure.
  • Der Begriff Verantwortung wird oft missverständlich verwendet, denn: Der Mensch verlässt sich auf Maschinen, gibt aber keine Verantwortung an sie ab.
  • Maschinen und Systeme können keine Verantwortung übernehmen, da sie eben keine Akteure sind.

Wie mit möglichen Haftungslücken umgehen?

  • Aktuelle Regulierungen wie die Gefährdungshaftung greifen auch beim Einsatz von autonomem Fahren.
  • Durch den Einsatz neuer Technologien können Haftungslücken entstehen.
  • Um mögliche Haftungslücken zu schließen, könnte zum Beispiel das Produkthaftungsrecht geändert werden, sodass es etwa auch Algorithmen umfasst.

Wen bestrafen, wenn KI irrt?

  • Gängige Straftheorien sind momentan in Bezug auf Maschinen ambivalent. Es bedarf weiterer wissenschaftlicher Untersuchung.
  • Obwohl der Mensch dazu neigt, auch Maschinen zu vermenschlichen, sind diese keine Akteure, die bestraft werden können.
  • Wenn Maschinen ganz autonom agieren und ein Schaden entsteht, muss man sich Gedanken machen, wie das für den Geschädigten wirkt. Es könnte eine sogenannte Vergeltungslücke entstehen, wenn die Maschine nicht bestraft werden kann.

Wie geht der Mensch mit KI um?

  • Es gibt in der deutschen Bevölkerung keine Technikfeindlichkeit, aber Unwissen über KI und Algorithmen.
  • In Experimenten fällt es Teilnehmenden oft zunächst schwer, sich auf KI zu verlassen. Mit der Zeit scheint jedoch eine Gewöhnung einzutreten und damit die Gefahr, sich zu stark an der Technik zu orientieren.

Statements der Podiumsgäste

Für die erfolgreiche Weiterführung der Digitalisierung ist es notwendig, dass Künstliche Intelligenz als unterstützendes Mittel gesellschaftlich akzeptiert ist. Eine Voraussetzung dafür ist, dass Entscheidungen durch KI sowie Entscheidungen, die Menschen mithilfe von KI treffen, als ethisch begründet wahrgenommen werden.

Anja Bodenschatz, M.Sc., TUM School of Governance

Unsere Entscheidungen und unsere Wahrnehmung werden durch den Einsatz von Künstlicher Intelligenz beeinflusst – auch ohne dass wir uns dessen immer bewusst sind. Damit die Ergebnisse der Zusammenarbeit mit KI unseren persönlichen Intentionen und gesellschaftlichen Werten unterliegen, ist es daher wichtig zu wissen, welchen Strukturen diese Beeinflussung folgt.

Anja Bodenschatz, M.Sc., TUM School of Governance

Wir schaffen durch neue digitale Möglichkeiten keine neuen Akteure.

Prof. Dr. Dr. h.c. Julian Nida-Rümelin Zum Profil

Ich argumentiere gegen eine E-Person im Recht, weil damit angeschlossen wird an eine ideologische Überhöhung digitaler Technologien, wie sie aus dem Silicon Valley kommt. Wir sollten nicht die Vorstellung verschärfen, dass es dabei um Personen geht.

Prof. Dr. Dr. h.c. Julian Nida-Rümelin Zum Profil

Selbst wenn man Maschinen so baut, dass sie Sanktionen zu spüren scheinen, ist das eine Mystifizierung. Die KI gehört nicht vor Gericht.

Prof. Dr. Dr. h.c. Julian Nida-Rümelin Zum Profil

Es gibt einen Gegensatz zwischen technischer Innovation und dem Konservatismus des Rechts. Die neue Technik stößt auf Rechtssysteme, die nicht so schnell abzuändern sind. Das führt zu vielen Fragen.

Prof. Dr. Dr. Eric Hilgendorf Zum Profil

Gefährdungshaftung und Risikoregulierung widersprechen sich nicht. Man könnte bei KI unterscheiden nach ihrem Einsatzort und sie zum Beispiel beim Einsatz in Krankenhäusern stärker regulieren. Während bei KI in Unterhaltungssoftware viele Vorsichtsmaßnahmen nicht nötig sind.

Prof. Dr. Dr. Eric Hilgendorf Zum Profil