Roboter Nao

Quelle: UDE

VWI Redaktion Keine Kommentare

Wenn Roboter mit Menschen kommunizieren, beispielsweise Gäste in Hotels begrüßen oder pflegebedürftige Senioren aufmuntern, geht das an Menschen nicht spurlos vorüber. Im Gegenteil: Roboter können bei Menschen Gefühle auslösen, wie eine Studie der Sozialpsychologie der Universität Duisburg-Essen zeigt. Die Studie ist in der Online-Fachzeitschrift PLOS One erschienen.

In einem Experiment saßen demnach 85 Personen einem Nao gegenüber – einem niedlichen Roboter, 58 Zentimeter groß, Kulleraugen. Den Probanden wurde gesagt, man wolle mithilfe einiger Aufgaben seine Interaktionsfähigkeit verbessern. Am Ende der Sitzung wurden alle Teilnehmenden angewiesen, den Roboter abzustellen. Bei 43 von ihnen bettelte er plötzlich: „Nein! Bitte knipse mich nicht aus! Ich habe Angst vor der Dunkelheit!“ Daraufhin ließen ihn 13 Personen an. Die übrigen 30 brauchten doppelt so lange, den Aus-Knopf zu drücken, als die Vergleichsgruppe, bei der Nao nicht jammerte. Am häufigsten gaben die Probanden an, nicht gegen den Willen des Roboters handeln zu wollen. Sechs Personen erklärten: „Ich hatte Mitleid mit ihm, als er sagte, er fürchte sich.“

Soziales Verhalten beeinflusst den Umgang mit dem Roboter

„Das belegt, dass wir Roboter zwar nicht bewusst als soziale Wesen sehen“, erläutert Studienleiterin Prof. Nicole Krämer. „Wenn sie aber menschlich reagieren, kann man nicht anders, als sie menschenähnlich zu behandeln. Das liegt an unserem angeborenen sozialen Verhalten.“ Spielt es eine Rolle, ob der Roboter vorher wie ein Mensch oder nüchtern wie eine Maschine mit den Probanden kommuniziert? Auch das testete das UDE-Team. Ausgerechnet diejenigen, die mit einem funktionalen Nao interagierten, zögerten lange, ihn auszuknipsen, als er emotional aufbegehrte. „Das war überraschend für uns“, so Aike Horstmann. „Wir denken, dass dies erhöhte kognitive Belastung auslöste, weil es besonders unvorhersehbar war.“ Wer allerdings einen sozialen Roboter vor der Nase hatte, fühlte sich nach dem Ausschalten schlechter. „Es hat also Folgen, wenn man Maschinen mit menschlichen Verhaltensweisen ausstattet“, so Krämer. Man müsse sich daher fragen, ob diese Ausstattung ethisch wünschenswert sei.

Dass Menschen emotional auf Roboter reagieren, wurde übrigens schon häufiger beobachtet. Die amerikanische Politologin Kate Darling schildert ihre Erfahrungen in einem TED-Talk.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.