Zum Inhalt
Fakultät Wirtschaftswissenschaften
Forschungsprojekt

FAIHRT: Human-zentrierte Gestaltung fairer Mensch-Roboter-Teams

(Projektlaufzeit: 2026 bis 2028)

Fördergeber: MERCUR Projektförderung - MERCUR ist die hochschulübergreifende Fördereinrichtung der Universitätsallianz Ruhr.

Über das Projekt

Die Gestaltung der Zusammenarbeit zwischen Menschen mit Robotern wird in unterschiedlichen Wissenschaftsdisziplinen erforscht und findet zunehmend Relevanz in Unternehmen. Während bisherige Forschung vornehmlich Dyaden untersucht, d.h. die Interaktion von einem Menschen mit einem Roboter, untersucht das vorliegende Vorhaben Teams aus drei oder mehr Mitglieder, die eine gemeinsame Aufgabe erledigen. In solchen Mensch-Roboter-Teams spielt die Wahrnehmung von Fairness eine zentrale Rolle, da sie Wohlbefinden, Verhalten und Zusammenarbeit der Mitglieder sowie das Arbeitsergebnis beeinflussen kann. Das Thema ist von besonderer Bedeutung, da Roboter im Team als unfair wahrgenommen werden können und gleichzeitig Gestaltungsgegenstand für fairere Teams sein können. Gleichwohl wurde Fairness in solchen Teams bisher kaum betrachtet. Ziel dieses Vorhabens ist es daher, Fairness in Mensch-Roboter-Teams systematisch, sowohl qualitativ als auch quantitativ, zu analysieren—mit besonderem Fokus auf Roboterfaktoren (z.B. Gestalt und Verhalten), Teamfaktoren (z.B. Hierarchie, Rolle) und Aufgabenmerkmale.

Beteiligte Partner

Universität Duisburg-Essen, Professur Interaktive Systeme (Prof. Dr.-Ing. Michael Prilla)

Ruhr-Universität Bochum, Fakultät für Psychologie, Juniorprofessur Human Centered Design für sozio-digitale Systeme (Jun.-Prof. Dr. Laura Kunold [geb. Hoffmann])

Quellen

Alhaji B, Büttner S, Sanjay Kumar S, Prilla M (2024) Trust dynamics in human interaction with an industrial robot. Behav Inf Technol 1–23. https://doi.org/10.1080/0144929X.2024.2316284

Alhaji B, Prilla M, Rausch A (2021) Trust Dynamics and Verbal Assurances in Human Robot Physical Collaboration. Front Artif Intell 4:103. https://doi.org/10.3389/frai.2021.703504

Büttner S, Söhngen, Prilla (2025) Anthropomorphization of Robots – a Result of Robot Design or a Result of the Human Tendency to Anthropomorphize? In: RO-MAN 2025 - 34th International Conference on Robot and Human Interactive Communication. Eindhoven, The Netherlands

Büttner ST, Sourkounis CM, Gutzmann JC, Prilla M (2023) Excuse Me, Something Is Unfair!-Implications of Perceived Fairness of Service Robots. In: Thirty-first European Conference on Information Systems (ECIS 2023). Kristiansand, Norway

Büttner ST, Goudarzi M, Prilla M (2024b) Why does the robot only select men? How women and men perceive autonomous social robots that have a gender bias. In: Proceedings of Mensch und Computer 2024. ACM, Karlsruhe Germany, pp 479–484

Hanelt A, Wiesche M, Hinz O, Benlian A (2025) Opening the Network of Trust: How Domain Experts in Triadic Relationships Build Trust in AI-Based Counterparts. Manag Inf Syst Q

Hoffmann L, Derksen M, Kopp S (2020) What a Pity, Pepper! How Warmth in Robots’ Language Impacts Reactions to Errors during a Collaborative Task. In: Companion of the 2020 ACM/IEEE International Conference on Human-Robot Interaction (HRI ’20). ACM, pp 245–247

Hoffmann L, Krämer NC (2021) The persuasive power of robot touch. Behavioral and evaluative consequences of non-functional touch from a robot. Plos One 16:e0249554

Kelch Y, Kluge A, Kunold L (2024) Would you Trust a Robot that Distrusts you? Unveiling the Impact of Robot Trust Disclosure on Human Trust. ACMIEEE Int Conf Hum-Robot Interact 588–592. https://doi.org/10.1145/3610978.3640757

Kunold L, Onnasch L (2022) A Framework to Study and Design Communication with Social Robots. Robotics 11:1–22. https://doi.org/%2010.3390/robotics11060129