| gefördert | Verantwortungslücken in Mensch-Maschine-Interaktionen: Die Ambivalenz von Vertrauen in KI (ReGInA)
bidt background

Verantwortungslücken in Mensch-Maschine-Interaktionen: Die Ambivalenz von Vertrauen in KI (ReGInA)

Das Projektteam untersucht die potenziellen Gefahren eines zu starken Vertrauens in Maschinen bei medizinischen Entscheidungen. Es untersucht, wie Ärztinnen und Ärzte vom Einsatz KI-basierter Empfehlungssysteme bei der Interpretation medizinischer Bilder für die Diagnose profitieren können und erforscht nutzerorientierte KI-Systeme, die eine Beeinflussung medizinischer Entscheidungsfindung vermindern.

Projektbeschreibung

Das Projektteam untersucht die potenziellen Gefahren eines zu starken Vertrauens in Maschinen bei medizinischen Entscheidungen.
Die Forscherinnen und Forscher konzentrieren sich hierfür auf die Interaktion zwischen Ärztinnen und Ärzten und KI-basierten Empfehlungsdiensten bei der Interpretation medizinischer Bilder für die Diagnose. Sie evaluieren das angemessene Maß an Vertrauen, das menschliche Entscheidungsträgerinnen und -träger benötigen, um von der Nutzung von KI-Systemen zu profitieren und gut informierte professionelle Entscheidungen treffen zu können. Ferner sollen die kausalen Auswirkungen von institutionellen, situativen, individuellen und technologischen Parametern auf dieses Vertrauensniveau untersucht werden.

Die Projektergebnisse werden für eine Vielzahl von KI-Anwendungen in anderen Bereichen von Bedeutung sein und der öffentlichen Debatte über KI-Empfehlungsdienste eine neue Ebene hinzufügen. Im Einklang mit den Anforderungen human-zentrierter Gestaltungsprinzipien stellt das Projektteam die Ärztinnen und Ärzte selbst sowie die Arzt-Patienten-Beziehung in den Mittelpunkt der Forschung. Zudem sollen Designparadigmen für KI-basierte Empfehlungsdienste, die eine Kalibrierung des Vertrauens erlauben, betrachtet werden.

Während Strukturen und Prozesse im medizinischen Bereich zunehmend an Maschinen angepasst werden, konzentrieren sich die Forscherinnen und Forscher stattdessen auf die Frage, inwieweit sich Empfehlungsdienste in die bestehende Struktur der Verantwortlichkeit und Rechenschaft in der ärztlichen Praxis integrieren lassen. Ergänzt wird der Ansatz um die Perspektive der Organisationsethik.

Projektteam

Prof. Dr.-Ing. Marc Aubreville

Professur für Bildverstehen und Medizinische Anwendung der Künstlichen Intelligenz, Technische Hochschule Ingolstadt

Prof. Dr. Alexis Fritz

Inhaber, Lehrstuhl für Moraltheologie | Katholische Universität Eichstätt-Ingolstadt

Prof. Dr. Matthias Uhl

Professur für Gesellschaftliche Implikationen und Ethische Aspekte der Künstlichen Intelligenz, Technische Hochschule Ingolstadt

Dr. Sebastian Krügel

Wissenschaftlicher Mitarbeiter (Postdoc), Professur für Gesellschaftliche Implikationen und ethische Aspekte der KI | Technische Hochschule Ingolstadt

Angelika Kießig

Wissenschaftliche Mitarbeiterin, Lehrstuhl für Moraltheologie | Katholische Universität Eichstätt-Ingolstadt

Wiebke Brandt

Wissenschaftliche Mitarbeiterin, Lehrstuhl für Moraltheologie | Katholische Universität Eichstätt-Ingolstadt

Jonas Ammeling

Wissenschaftlicher Mitarbeiter , Institut AImotion | Technische Hochschule Ingolstadt

Beiträge