KI-Systeme werden zunehmend autonomer und sind in der Lage, spezifische Aufgaben eigenständig und ohne direkte menschliche Intervention auszuführen. Ein Beispiel hierfür sind autonome Fahrzeuge, die ab dem SAE-Automatisierungsgrad 3 in einem definierten Betriebsbereich bestimmte Fahrfunktionen ohne die Beteiligung menschlicher Fahrer:innen übernehmen können. Autonome Fahrzeuge treffen beispielsweise Entscheidungen darüber, wie viel Abstand sie zu anderen Verkehrsteilnehmerinnen und ‑teilnehmern halten, wann sie bremsen oder, in extremen Fällen, mit wem sie in unvermeidbaren Unfallsituationen kollidieren. Obwohl die Einführung autonomer Fahrzeuge grundsätzlich eine Verbesserung der Verkehrssicherheit erwarten lässt, hat die Vergangenheit gezeigt, dass dennoch Unfälle durch autonome Fahrzeuge auftreten können, die lebenswichtige Entscheidungen verlangen. Aber auch herkömmliche Entscheidungen über das Einhalten des erforderlichen Mindestabstands oder das Bremsverhalten eines autonomen Fahrzeugs tragen normative Bedeutung, da sie bestimmen, welchem Individuum wie viel Risiko auferlegt wird. Verringert ein autonomes Fahrzeug beispielsweise den Abstand zu einem Fahrradfahrer, so steigt die Wahrscheinlichkeit einer Kollision und im Falle einer Kollision der erwartete Schaden für diesen Fahrradfahrer. Die Tätigkeiten und das Fahrverhalten autonomer Fahrzeuge beinhalten also unter anderem die Übernahme komplexer und ethischer Entscheidungen, die letztendlich implizit festlegen, was eine gerechte Verteilung von Risiken im Straßenverkehr bedeutet.
Fraglich ist, was genau eine faire Risikoverteilung im Straßenverkehr ist und wie entsprechende ethische Überlegungen in die Trajektorienplanung autonomer Fahrzeuge eingebettet werden können. Sind Automobilhersteller verpflichtet, ihre autonomen Fahrzeuge so zu programmieren, dass die Sicherheit der Passagiere priorisiert wird? Sollten nicht in erster Linie vulnerable Gruppen wie Fußgänger:innen Fahrradfahrer:innen einen speziellen Schutz erhalten? Ist es zulässig, persönliche Merkmale wie das Alter der Straßenteilnehmer:innen bei der Entscheidungsfindung autonomer Fahrzeuge zu berücksichtigen? Wie lassen sich abstrakte Werte wie Fairness oder Sicherheit effektiv in KI-Systemen operationalisieren und in diese integrieren? Dies sind beispielhafte Fragestellungen und Herausforderungen, mit denen sich das Forschungsgebiet der Maschinenethik auseinandersetzt. Unternehmen müssen schließlich die Prinzipien und ethischen Überlegungen, die den Entscheidungen zugrunde liegen, im Voraus programmieren, um sicherzustellen, dass diese Aspekte explizit in der Entscheidungsfindung der autonomen Systeme berücksichtigt werden. Das übergeordnete Ziel der Maschinenethik besteht daher unter anderem darin, KI-Systeme zu entwickeln, die die Fähigkeit besitzen, moralische Informationen zu verarbeiten, Handlungsalternativen (basierend auf ethischen Prinzipien) abzuwägen und entsprechende Entscheidungen zu treffen. Im Hinblick auf autonome Fahrzeuge wurden mittlerweile bereits Ethikrichtlinien und Gesetze (z. B. BMJ 2023; Lütge 2017) verabschiedet, die den Schutz von Dritten und vulnerablen Straßenteilnehmerinnen und ‑teilnehmern vorschreiben und es untersagen, Entscheidungen auf Basis persönlicher Merkmale zu treffen. Richtlinien dieser Art und Initiativen im Bereich der Maschinenethik können dazu beitragen, die Entwicklung und Programmierung autonomer Fahrzeuge so zu gestalten, dass sie sich an gesellschaftlichen Bedürfnissen und Werten orientieren.
Vergleichbarkeit mit analogen Phänomenen
Im herkömmlichen, nicht automatisierten Straßenverkehr übernehmen Menschen die Fahrfunktionen. Sie treffen – eingebettet in die Vorgaben des Straßenverkehrsgesetzes – individuell Entscheidungen bezüglich des Abstands zu anderen Verkehrsteilnehmern, ihrer Geschwindigkeit und ihres Bremsverhaltens. Sie handeln instinktiv, passen ihr Fahrverhalten spontan an die vorliegende Straßensituation an und viele Entscheidungsprozesse – vor allem in Unfallsituationen – laufen schnell und unterbewusst ab. Im Kontext autonomer Fahrzeuge ergibt sich die Möglichkeit und Notwendigkeit, Entscheidungsprozesse und -prinzipien im Voraus festzulegen. Im automatisierten Straßenverkehr handelt es sich also nicht um intuitive, Ad-hoc-Entscheidungen einer einzelnen Fahrerin oder eines einzelnen Fahrers, sondern um vorprogrammierte, wohlüberlegte Entscheidungsprozesse, die ex ante definiert und in das Fahrzeug eingepflegt werden müssen. Um die optimale Trajektorie überhaupt auswählen zu können, müssen autonome Fahrzeuge zunächst ihr Umfeld und alle Handlungsalternativen identifizieren und analysieren. Dies erfordert die Erhebung und Verarbeitung vieler Daten, wie beispielsweise physische Hindernisse, das Fahrverhalten, die Geschwindigkeit oder den exakten Standort anderer Straßenteilnehmer:innen. Ein entscheidender Faktor für die effektive und sichere Implementierung autonomer Fahrzeuge und ihrer Entscheidungen im Straßenverkehr ist daher die vernetzte Mobilität, die es den Fahrzeugen ermöglicht, miteinander zu kommunizieren und Daten in Echtzeit auszutauschen.
Gesellschaftliche Relevanz
Die vorprogrammierten Entscheidungsprozesse autonomer Fahrzeuge haben im Vergleich zu den Entscheidungen einzelner menschlicher Fahrer, die lediglich das unmittelbare Umfeld betreffen, weitreichende gesellschaftliche Konsequenzen, z. B. hinsichtlich Fairness- und Sicherheitsaspekten. Der Einflussbereich der Entscheidungen autonomer Fahrzeuge ist somit erheblich größer. Sofern sich (ähnlich programmierte) autonome Fahrzeuge zunehmend verbreiten, skaliert die „automatisierte Moral“ also schneller im Gegensatz zum nicht automatisierten Straßenverkehr, wo dies nicht der Fall ist. In Anbetracht dessen ist es angebracht, eingehend über die spezifischen (ethischen) Prinzipien nachzudenken, die den Entscheidungsprozessen autonomer Fahrzeuge zugrunde liegen.
Quellen
- TUM School of Social Sciences and Technology IEAI ANDRE – Autonomous Driving Ethics-Projekt des Institute for Ethics in Artificial Intelligence, Technische Universität München: https://www.ieai.sot.tum.de/research/andre-autonomous-driving-ethics/ [01.08.2024]
- Anderson, M., & Anderson, S. L. (2011). Machine ethics. Cambridge University Press.
- Bundesministerium der Justiz (BMJ) (2023). Straßenverkehrsgesetz (StVG). Retrieved from: https://www.gesetze-im-internet.de/stvg/BJNR004370909.html [01.08.2024]
- Geisslinger, M. et al. (2021). Autonomous driving ethics: From trolley problem to ethics of risk. Philosophy & Technology, 34(4), 1033–1055. https://doi.org/10.1007/s13347-021-00449-4 [01.08.2024]
- Geisslinger, M./Poszler, F./Lienkamp, M. (2023). An Ethical Trajectory Planning Algorithm for Autonomous Vehicles. Nature Machine Intelligence, 5(2), 137–144. https://doi.org/10.1038/s42256-022-00607-z [01.08.2024]
- Lütge, C. (2017). The German ethics code for automated and connected driving. Philosophy & Technology, 30(4), 547–558. https://doi.org/10.1007/s13347-017-0284-0 [01.08.2024]
- Lütge, C. et al. (2021). AI4People: Ethical Guidelines for the Automotive Sector – Fundamental Requirements and Practical Recommendations. International Journal of Technoethics, 12(1), 101–125. https://doi.org/10.4018/IJT.20210101.oa2 [01.08.2024]
- Poszler, F. et al. (2023). Applying ethical theories to the decision-making of self-driving vehicles: A systematic review and integration of the literature. Technology in Society, 75, 102350. https://doi.org/10.1016/j.techsoc.2023.102350 [01.08.2024]
- SAE International (2021). Surface vehicle recommended practice: Taxonomy and Definitions for Terms Related to Driving Automation Systems for On-Road Motor Vehicles (J3016). https://www.sae.org/standards/content/j3016_202104/ [01.08.2024]
- Van de Poel, I. (2013). Translating values into design requirements. In: Michelfelder, D./McCarthy, N./Goldberg, D. (Hg.). Philosophy and Engineering: Reflections on Practice, Principles and Process. Philosophy of Engineering and Technology, 15, 253–266. https://doi.org/10.1007/978-94-007-7762-0_20 [01.08.2024]
- Wallach, W./Allen, C. (2009). Moral machines: Teaching robots right from wrong. Oxford (England).