FAIHRT: Human-zentrierte Gestaltung fairer Mensch-Roboter-Teams
(Projektlaufzeit: 2026 bis 2028)
Fördergeber: MERCUR Projektförderung - MERCUR ist die hochschulübergreifende Fördereinrichtung der Universitätsallianz Ruhr.

Über das Projekt
Die Gestaltung der Zusammenarbeit zwischen Menschen mit Robotern wird in unterschiedlichen Wissenschaftsdisziplinen erforscht und findet zunehmend Relevanz in Unternehmen. Während bisherige Forschung vornehmlich Dyaden untersucht, d.h. die Interaktion von einem Menschen mit einem Roboter, untersucht das vorliegende Vorhaben Teams aus drei oder mehr Mitglieder, die eine gemeinsame Aufgabe erledigen. In solchen Mensch-Roboter-Teams spielt die Wahrnehmung von Fairness eine zentrale Rolle, da sie Wohlbefinden, Verhalten und Zusammenarbeit der Mitglieder sowie das Arbeitsergebnis beeinflussen kann. Das Thema ist von besonderer Bedeutung, da Roboter im Team als unfair wahrgenommen werden können und gleichzeitig Gestaltungsgegenstand für fairere Teams sein können. Gleichwohl wurde Fairness in solchen Teams bisher kaum betrachtet. Ziel dieses Vorhabens ist es daher, Fairness in Mensch-Roboter-Teams systematisch, sowohl qualitativ als auch quantitativ, zu analysieren—mit besonderem Fokus auf Roboterfaktoren (z.B. Gestalt und Verhalten), Teamfaktoren (z.B. Hierarchie, Rolle) und Aufgabenmerkmale.
Beteiligte Partner
Universität Duisburg-Essen, Professur Interaktive Systeme (Prof. Dr.-Ing. Michael Prilla)
Ruhr-Universität Bochum, Fakultät für Psychologie, Juniorprofessur Human Centered Design für sozio-digitale Systeme (Jun.-Prof. Dr. Laura Kunold [geb. Hoffmann])
Quellen
Alhaji B, Büttner S, Sanjay Kumar S, Prilla M (2024) Trust dynamics in human interaction with an industrial robot. Behav Inf Technol 1–23. https://doi.org/10.1080/0144929X.2024.2316284
Alhaji B, Prilla M, Rausch A (2021) Trust Dynamics and Verbal Assurances in Human Robot Physical Collaboration. Front Artif Intell 4:103. https://doi.org/10.3389/frai.2021.703504
Büttner S, Söhngen, Prilla (2025) Anthropomorphization of Robots – a Result of Robot Design or a Result of the Human Tendency to Anthropomorphize? In: RO-MAN 2025 - 34th International Conference on Robot and Human Interactive Communication. Eindhoven, The Netherlands
Büttner ST, Sourkounis CM, Gutzmann JC, Prilla M (2023) Excuse Me, Something Is Unfair!-Implications of Perceived Fairness of Service Robots. In: Thirty-first European Conference on Information Systems (ECIS 2023). Kristiansand, Norway
Büttner ST, Goudarzi M, Prilla M (2024b) Why does the robot only select men? How women and men perceive autonomous social robots that have a gender bias. In: Proceedings of Mensch und Computer 2024. ACM, Karlsruhe Germany, pp 479–484
Hanelt A, Wiesche M, Hinz O, Benlian A (2025) Opening the Network of Trust: How Domain Experts in Triadic Relationships Build Trust in AI-Based Counterparts. Manag Inf Syst Q
Hoffmann L, Derksen M, Kopp S (2020) What a Pity, Pepper! How Warmth in Robots’ Language Impacts Reactions to Errors during a Collaborative Task. In: Companion of the 2020 ACM/IEEE International Conference on Human-Robot Interaction (HRI ’20). ACM, pp 245–247
Hoffmann L, Krämer NC (2021) The persuasive power of robot touch. Behavioral and evaluative consequences of non-functional touch from a robot. Plos One 16:e0249554
Kelch Y, Kluge A, Kunold L (2024) Would you Trust a Robot that Distrusts you? Unveiling the Impact of Robot Trust Disclosure on Human Trust. ACMIEEE Int Conf Hum-Robot Interact 588–592. https://doi.org/10.1145/3610978.3640757
Kunold L, Onnasch L (2022) A Framework to Study and Design Communication with Social Robots. Robotics 11:1–22. https://doi.org/%2010.3390/robotics11060129





