LLM-based value ascription in difficult decisions
Ausgehend von der These, dass schwere Lebensentscheidungen besondere Relevanz für Selbsttransformation und die Identitätsbildung einer Person haben, beschäftigt sich die Arbeitsgruppe mit der Frage, wie Large Language Models (LLMs) auf diese Entscheidungsfindung als Ratgeber einwirken: Können User*innen mit Hilfe der Antworten und Informationen eines Chatbots (beispielsweise durch die Analyse zugrundeliegender Wertedilemmata) leichter zu einer Lösung gelangen? Wäre dieser Einfluss auf einer normativen Ebene zu begrüßen, oder kommt es zu einer Auslagerung von Verantwortung an technische Systeme und damit zu einer Reduktion eigener Handlungsmacht? Die interdisziplinäre Arbeitsgruppe (Psychologie, Philosophie, Kommunikationswissenschaft) plant zur Klärung der ersten Frage nach der Lösungskompetenz und Userbeeinflussung eine empirische Studie und im Anschluss die philosophisch-normative Einordnung in einem Paper.
Mitglieder: Carolin Rutzmoser, Maximilian Lechner, Insa Schaffernak, Franziska Schrade

