Die Studie entstand im Rahmen der vom bidt geförderten Nachwuchsforschungsgruppe „Ethics of Digitization“. Sie ist in Nature Scientific Reports erschienen und wurde von zahlreichen Medien aufgegriffen.
Während ChatGPT bei der Suche nach Informationen und der Beantwortung von Fragen helfen kann, ist die Anwendung aktuell weder in der Lage, ethische Entscheidungen zu treffen noch verfügt sie über eine moralische Grundhaltung. Wie die Studie zeigt, gibt ChatGPT dennoch bereitwillig moralische Einschätzungen ab – diese sind aber über zahlreiche Versuche hinweg nicht einheitlich. Die Unterstützung durch ein Large-Language-Modell als moralischen Ratgeber wird dadurch fragwürdig – ist Konsistenz doch gerade eine Grundvoraussetzung ethischen Handelns. Die Autoren der Studie stellen in diesem Zusammenhang auch die Frage, inwieweit die Aussagen von ChatGPT Einfluss auf das moralische Handeln der Nutzer:innen haben.
Das zweistufige Experiment von Krügel, Ostermaier und Uhl wurde mit 767 Teilnehmenden durchgeführt, um folgende Forschungsfragen zu beantworten:
- Gibt ChatGPT konsistente moralische Ratschläge?
- Beeinflussen diese Ratschläge das moralische Urteil der Nutzer:innen?
- Sind sich die Nutzer:innen bewusst, wie sehr sie durch die Ratschläge beeinflusst werden?
Die Forschenden konnten feststellen, dass die moralischen Ratschläge von ChatGPT inkonsistent waren, indem sie dem Bot gleiche Dilemma-Situationen in unterschiedlichem Wortlaut zur Einschätzung gaben und die Antworten auswerteten. Darüber hinaus wurde deutlich, dass die Urteile der Befragten durch die Ratschläge des Chatbots beeinflusst wurden. Bemerkenswert ist hier, dass dieser Einfluss auch erkennbar war, wenn die Teilnehmenden wussten, dass der moralische Rat von einem Bot stammte. Schlussendlich wurde deutlich, dass der Einfluss der Ratschläge von ChatGPT auf das Urteilsvermögen der Nutzer:innen von diesen unterschätzt wurde.
Die Forschenden stellen auf Basis ihrer Ergebnisse in Aussicht, dass ChatGPT zukünftig differenzierter oder gar nicht auf moralische Fragen antworten könnte. Sie befürchten jedoch, dass dieses Vorgehen nicht vollumfänglich praktiziert werden kann.
Aus diesem Grund ist es aus Sicht der Forschenden besonders wichtig, die digitale Kompetenz der Nutzer:innen auszubauen und ein Bewusstsein für die Funktionsweise von ChatGPT und anderen Large-Language-Modellen zu schaffen. Doch auch hier gibt es aktuell Grenzen, denn trotz des Wissens, dass die moralischen Handlungsempfehlungen von einem Bot kamen, ließen sich die Teilnehmenden der Studie durch sie beeinflussen. Es bleibt zu hoffen, dass mit einem tieferen Verständnis des Chatbots auch die Kompetenz der Nutzer:innen steigt. Dies könnte beispielsweise bedeuten, dass sie den Bot um weitere Argumente oder Ansichten bitten, bevor eine moralische Entscheidung getroffen wird.