Projektbeschreibung
Digitale, taktile Sensoren werden zunehmend mit Künstlicher Intelligenz gekoppelt, um Menschen bei ihren täglichen und beruflichen Aktivitäten zu unterstützen, z. B. bei Spurhalteassistenten im Auto oder Robotern, die bei Präzisionsoperationen unterstützen. In Anbetracht der Bedeutung künstlicher Assistenzsysteme untersuchte das Projekt aus Perspektive der Kognitionswissenschaften, Computerwissenschaften und Philosophie deren Einbeziehung in den Trainingsprozess. Denn kooperatives Lernen wird auch hybride Paare aus menschlichen und künstlichen Lernenden umfassen.
Mithilfe eines neuartigen interdisziplinären Ansatzes untersuchte das Projektteam das hybride Lernen zwischen Mensch und KI für zunehmend innovative taktile Augmentierung und Assistenz. Hierfür werden drei unterschiedliche, aber komplementäre Perspektiven integriert:
- die kognitive Neurowissenschaft des menschlichen, biologischen Lernens durch Sehen und Berühren,
- die Philosophie des Selbstvertrauens und des Vertrauens in digitale taktile Assistenten,
- das Informatikdesign von maschinellen Lernalgorithmen, die auf das taktile Lernen mit KI zugeschnitten sind.
Das Projekt lieferte Erkenntnisse darüber, wie Lernen mit KI-Unterstützung verschiedene Sinnesmodalitäten beeinflusst und welche Rolle Vertrauen und Entscheidungsprozesse dabei spielen:
- Lernleistung und Vertrauen:
Es zeigte sich, dass die Geschwindigkeit und Genauigkeit des Lernens über verschiedene Sinnesmodalitäten hinweg konstant blieben. Besonders taktiles Lernen führte jedoch zu schnelleren Reaktionszeiten, was auf eine erhöhte wahrgenommene Sicherheit bei haptischem Feedback hindeutet. - Mensch-KI-Interaktion:
Mit der Entwicklung der Maze-Task, einer innovativen Entscheidungsaufgabe, konnte das Projekt Parallelen zwischen menschlichem Lernen und KI-gestützten Entscheidungsmodellen aufzeigen. Die Ergebnisse deuteten darauf hin, dass menschliches Lernen durch Methoden wie DynaQ mit zahlreichen Simulationen modelliert werden kann. - Vertrauen und Ethik in der KI-Nutzung:
Philosophische Analysen zeigten, dass die Bezeichnung von KI als „vertrauenswürdig“ Nutzer dazu verleitet, die Technologie als zuverlässiger und wohlwollender einzustufen – selbst ohne objektive Grundlage. Dagegen erwies sich die Bezeichnung „zuverlässig“ als neutralere und weniger problematische Alternative, die dennoch Akzeptanz und Engagement fördert.
Ansprechpartner

Projektteam

Dr. John Dorsch (Ph.D.)
Postdoc, Fakultät für Philosophie, Wissenschaftstheorie und Religionswissenschaft | Ludwig-Maximilians-Universität München

Dr. Isabelle Ripp (Ph.D.)
Postdoc, Lehrstuhl für Philosophy of Mind | Ludwig-Maximilians-Universität München

Prof. Dr. Maximilian Moll
Stiftungsjuniorprofessur für Operations Research – Prescriptive Analytics, Fakultät für Informatik | Universität der Bundeswehr München

Prof. Dr. Merle Fairhurst
Professorin, Lehrstuhl für Biologische Psychologie | Universität der Bundeswehr München

Prof. Dr. Ophelia Deroy
Inhaberin, Lehrstuhl für Philosophy of Mind | Ludwig-Maximilians-Universität München
