Projektbeschreibung
Die Verbreitung generativer KI bringt neue Chancen, aber auch erhebliche Herausforderungen für Individuen und Gesellschaften mit sich. Jüngste Forschungsergebnisse zeigen, dass Texte und Bilder, die mit generativer KI erstellt wurden, Frauen und Minderheiten oft unausgewogen darstellen. Bestimmte Gruppen werden dabei teils kaum oder gar nicht repräsentiert, oder es dominieren stereotype Darstellungsformen (Algorithmic Bias, algorithmische Darstellungsverzerrungen). Gleichzeitig deuten erste Studien darauf hin, dass Menschen KI stärker als anderen Menschen zutrauen, die Welt ausgewogen darzustellen.
Auf Grundlage einschlägiger Theorien und Befunde, einschließlich der Forschungsarbeiten im Projekt in den Bereichen generative KI und medial vermittelte Stereotype, wird das Themengebiet des Algorithmic Bias aus sozialwissenschaftlicher Perspektive untersucht. Die empirischen Arbeiten sind in drei Arbeitspakete unterteilt. Die Forschungsziele bestehen darin a) Wissen, Erfahrungen und Bewertungen verschiedener Stakeholdergruppen im Hinblick auf das Phänomen des Algorithmic Bias zu identifizieren; b) psychologische Mechanismen und Effekte im Umgang mit Texten und Bildern zu untersuchen, die algorithmischen Darstellungsverzerrungen aufweisen sowie c) Maßnahmen zur Reduzierung der potenziell negativen Auswirkungen des Algorithmic Bias zu entwickeln.
Es werden Erkenntnisse erwartet, die nicht nur für Wissenschaftlerinnen und Wissenschaftler von Bedeutung sind. Die Forschungsergebnisse sollten auch für Interessengruppen in der Politik, der Medien- und Kreativwirtschaft sowie im Bildungswesen und für die breite Öffentlichkeit von großem Interesse sein.
Projektteam
Prof. Dr. Markus Appel
Lehrstuhlinhaber für Kommunikationspsychologie und Neue Medien, Julius-Maximilians-Universität Würzburg | Institut Mensch-Computer-Medien