Mit zunehmendem Einsatz von robotischen Technologien in verschiedenen Bereichen menschlichen Lebens geraten auch zunehmend psychologische Fragestellungen ins Zentrum der Roboterforschung – also Fragen zu menschlichem Denken, Fühlen und Verhalten im Kontext der Mensch-Maschine-Interaktion [9]. So ist es für ein erfolgreiches Interaktionsdesign und das Gelingen einer Einführung in soziale Umwelten wichtig zu verstehen, wie Menschen intelligente Maschinen erleben: Wie vertrauenswürdig empfinden wir einen Roboter? Erleben wir den Einsatz eines Roboters eher als positiv oder negativ? Welche Sorgen und Hoffnungen gehen mit diesen Technologien einher? Solche Empfindungen können stark variieren in Abhängigkeit einer Vielzahl von Faktoren der eigenen Person, der Situation sowie von den Eigenschaften der Technologie selbst – also wie sie gestaltet ist oder sich verhält [9].
Die Wahrnehmung von Robotern hängt maßgeblich auch von deren Einsatzbereichen ab. So unterscheidet sich zum Beispiel ein humanoider Roboter mit menschenähnlicher Gestalt, der für soziale Interaktionen eingesetzt wird, deutlich von einem Fertigungsroboter, der mit seiner fahrerlosen Transportplattform und dem Greifarm bei Lagerarbeiten oder in der Montage Arbeitsaufgaben erledigen kann. Es unterscheiden sich deshalb nicht nur die Aufgaben, sondern daraus abgeleitet auch die Form der Roboter und schließlich auch die verschiedenen Kommunikationsmöglichkeiten – wir haben bei Robotern also eine sehr hohe Gestaltungsbandbreite.
Bei humanoiden, also optisch menschenähnlichen Robotern lässt sich beispielsweise besonders das Phänomen des Anthropomorphismus beobachten [1]. So ist in Forschungsarbeiten dokumentiert, dass wir bei sozialen Hinweisreizen durch die äußere Form (z. B. Elemente, die an Augen erinnern) Maschinen entsprechend auch eher menschliche Eigenschaften zuschreiben, wie beispielsweise einen eigenen Verstand und Willen [1], [3] [10]. Dies kann ab einem zu hohen Grad der Menschenähnlichkeit aber auch durchaus unangenehm wirken: Während wir einen gewissen Grad an Menschenähnlichkeit als ansprechend empfinden, finden wir zu menschenähnliche künstliche Agenten sogar gruselig – der sogenannte Gruselgraben (Uncanny Valley) [8]. Solche Aspekte des Anthropomorphismus stehen bei der Industrierobotik nicht so stark im Fokus. Sie erinnern durch ihre äußere Form weniger an soziale Wesen, sondern sind häufig mit verschiedenen Manipulatoren wie einem Greifarm oder Werkzeugen für Arbeiten in der Fertigung und Montage ausgestattet, die bei Menschen zu Unterschieden im Sicherheitsempfinden und Stress führen können und schließlich zu dem Wunsch nach größerem Sicherheitsabstand [6], [7]. Neben der unterschiedlichen Gestaltung spielt auch die soziale Umgebung im Arbeitskontext eine Rolle. Wird eine solche Maschine neu an Arbeitsplätzen eingeführt, zieht dies Veränderungsprozesse im Unternehmen nach sich (Changes); beispielsweise können bestimmte Aufgaben wegfallen, die jetzt der Roboter übernimmt, und neue Aufgaben kommen hinzu (z. B. Wartungsarbeiten). Solche Veränderungen sind mit verschiedenen Sorgen und Ängsten der jeweiligen Mitarbeitenden verbunden, wie aus einer Befragungsstudie mit über 500 Personen von Leichtmann et al. (2023) [5] hervorgeht. So kann der Roboter beispielsweise aufgrund der Sorge, dass er interessante Tätigkeitsbereiche wegnehmen wird, als negativ empfunden werden. Andere Vorbehalte könnten soziale Auswirkungen wie Jobverlust oder geringere Wertschätzung menschlicher Arbeit sein. Ob ein Roboter hierbei als positive oder negative Veränderung empfunden wird, hängt auch von der Unternehmenskultur und dem Umgang der Führungskräfte mit der Veränderung ab [5].
Solche Auswirkungen auf den Menschen und das soziale Zusammenleben haben folglich auch ethische Implikationen für die Gestaltung, Implementierung, Verbreitung und Nutzung solcher Technologien. Je nach Gestaltung kann ein Roboter größeres Vertrauen hervorrufen. Dabei ist aber nicht das Ziel, dass das Vertrauen in Roboter maximiert wird, sondern es gilt aus ethischer Sicht, ein adäquates Vertrauen herzustellen. Beispielsweise sollten Personen einem Industrieroboter nicht so stark vertrauen, dass sie wichtige Sicherheitsvorkehrungen vernachlässigen. Auch die angesprochenen sozialen Auswirkungen und Sorgen der Menschen sollten bei der Einführung von Robotern berücksichtigt werden [4], [5]. So soll bei der Gestaltung der Zusammenarbeit zwischen Menschen und Robotern ein menschzentrierter Ansatz verfolgt werden. Beispielsweise sollte die Arbeit mit dem Roboter so gestaltet werden, dass der Mensch seine Tätigkeit noch als wertvoll erlebt. Dies kann gelingen, wenn bei dem Wegfall interessanter Arbeitsaufgaben der Mensch nicht nur als „Lückenfüller“ für den Roboter dient, sondern neue wertvolle Aufgaben hinzukommen.
Vergleichbarkeit mit analogen Phänomenen
Viele der hier beschriebenen Wahrnehmungsphänomene kennen wir auch aus anderen Bereichen ohne intelligente Maschinen. Beispielsweise lässt sich das Phänomen des Anthropomorphismus – also, wenn menschliche Eigenschaften nichtmenschlichen Entitäten zugeschrieben werden – auch in anderen Bereichen finden. So gibt es Studien zu Unterschieden bei der Zuschreibung menschlicher Eigenschaften zu Tieren oder der Natur und beispielsweise damit verbundenen Auswirkungen auf unser Umweltverhalten [2]. Ein Unterschied bei Robotern und intelligenten Maschinen im Allgemeinen ist jedoch der Gestaltungsspielraum. Anthropomorphismus hängt unter anderem davon ab, wie die Maschine gestaltet ist und sich verhält. Durch eine erhöhte Veränderbarkeit von Technologien können sich auch unsere Wahrnehmungen ändern. Dieser Gestaltungsspielraum eröffnet eine Bandbreite an Möglichkeiten, aber auch Herausforderungen, da er die Interaktion und das Vertrauen in die Technologie maßgeblich beeinflussen kann.
Auch im Arbeitskontext sind Veränderungsprozesse an sich nichts Neues – so können Maßnahmen jeder Unternehmensveränderung stets Sorgen der Belegschaft hinsichtlich aufgabenbezogener und sozialer Konsequenzen nach sich ziehen. Diese Veränderungsprozesse (z. B. Umstrukturierungen von Abteilungen) sind häufig mit Unsicherheiten und Ängsten verbunden. Allerdings könnten intelligente Maschinen langfristige und weitreichende gesellschaftliche Auswirkungen durch Automatisierungsprozesse haben, die über kurzfristige oder lokale wirtschaftliche Schwankungen hinausgehen und eine dauerhafte Veränderung ganzer Arbeitssparten bedeuten könnten.
Ein weiterer Vergleich lässt sich zu einfacheren früheren Technologien ziehen, wie beispielsweise der Industrialisierung. Auch diese führten zu tiefgreifenden gesellschaftlichen Veränderungen und Anpassungsprozessen. Doch im Gegensatz zu diesen historischen Entwicklungen bieten intelligente Maschinen und Roboter ein höheres Maß an Flexibilität und Anpassungsfähigkeit, was sowohl Chancen als auch Risiken birgt. Die Fähigkeit, Roboter so zu gestalten, dass sie spezifische menschliche Bedürfnisse und Interaktionsformen berücksichtigen, erfordert jedoch auch eine sorgfältige ethische Bewertung.
Gesellschaftliche Relevanz
Intelligente Maschinen werden noch tiefer und in weitere Bereiche unseres gesellschaftlichen Zusammenlebens integriert werden. Dies wird unterschiedliche psychologische Auswirkungen haben. Wichtig ist jedoch zu betonen, dass wir als Gesellschaft eine ganze Bandbreite an Gestaltungsspielräumen von Mensch-Maschine-Interaktionen haben. In diesem Artikel wurde kurz skizziert, wie sich beispielsweise die Gestaltung von Robotern auf unsere Wahrnehmung und das Vertrauen auswirken können. Es kommt aber nicht nur auf die technische Gestaltung an, sondern auch darauf, wie wir die Einführung solcher Technologien in soziale Systeme umsetzen. Es wird eine zentrale Zukunftsaufgabe, wie wir Interaktionen mit neuen Technologien und deren Implementierung gestalten, sodass sie ethischen Prinzipien genügen.
Weiterführende Links und Literatur
Quellen
- Epley, N. et. al. (2008). When We Need A Human: Motivational Determinants of Anthropomorphism. In: Social Cognition 26 (2), 143–155.
- Epley, N./Waytz, A./Cacioppo, J. T. (2007). On seeing human: A three-factor theory of anthropomorphism. In: Psychological Review 114 (4), 864–886.
- Gray, H. M./Gray, K./Wegner, D. M. (2007). Dimensions of Mind Perception. In: Science 315 (5812), 619–619.
- Hampel, N. et al. (2022). Introducing digital technologies in the factory: Determinants of blue-collar workers’ attitudes towards new robotic tools. In: Behaviour & Information Technology 41 (14), 2973–2987.
- Leichtmann, B. et al. (2023). New Short Scale to Measure Workers’ Attitudes Toward the Implementation of Cooperative Robots in Industrial Work Settings: Instrument Development and Exploration of Attitude Structure. In: International Journal of Social Robotics 15 (6), 909–930.
- Leichtmann, B. et al. (2022). Personal Space in Human-Robot Interaction at Work: Effect of Room Size and Working Memory Load. In: ACM Transactions on Human-Robot Interaction 11 (4), 1–19.
- Leichtmann, B./Nitsch, V. (2020). How much distance do humans keep toward robots? Literature review, meta-analysis, and theoretical considerations on personal space in human-robot interaction. In: Journal of Environmental Psychology 68, 101386.
- Mara, M./Appel, M./Gnambs, T. (2022). Human-Like Robots and the Uncanny Valley: A Meta-Analysis of User Responses Based on the Godspeed Scales. In: Zeitschrift für Psychologie 230 (1), 33–46.
- Mara, M./Leichtmann, B. (2021). Soziale Robotik und Roboterpsychologie: Was psychologische Forschung zur menschzentrierten Entwicklung robotischer Systeme beiträgt. In: Bendel, B. (Hg.). Soziale Roboter. Wiesbaden, 169–189).
- Waytz, A./Heafner, J./Epley, N. (2014). The mind in the machine: Anthropomorphism increases trust in an autonomous vehicle. In: Journal of Experimental Social Psychology 52, 113–117.