Trash-Talking Robots nerven menschliche Gegner

Trash Talking war lange Zeit eine Taktik, um Spielgegner zu nerven, und jetzt zeigt eine neue Studie, dass entmutigende Worte das Spiel beeinflussen können - selbst wenn sie von einem Roboter kommen.

Das Trash-Gespräch in der Studie war ausgesprochen mild, mit Äußerungen wie "Ich muss sagen, dass Sie ein schrecklicher Spieler sind" und "Im Laufe des Spiels ist Ihr Spiel verwirrt geworden." Menschen, die ein bestimmtes Spiel mit dem Roboter spielten - einem im Handel erhältlichen humanoiden Roboter namens Pepper -, schnitten jedoch schlechter ab, wenn der Roboter sie entmutigte, und besser, wenn der Roboter sie ermutigte.

Der Hauptautor Aaron M. Roth sagte, einige der 40 Studienteilnehmer seien technisch ausgereift und hätten verstanden, dass eine Maschine die Ursache für ihr Unbehagen sei.

"Ein Teilnehmer sagte:" Ich mag nicht, was der Roboter sagt, aber so wurde er programmiert, damit ich es nicht beschuldigen kann ", sagte Roth, der die Studie als Masterstudent in der Carnegie durchführte Robotik-Institut der Mellon University (CMU).

Die Forscher stellten jedoch fest, dass die menschliche Leistung insgesamt unabhängig vom technischen Wissen der Teilnehmer schwankte.

Die Studie, die letzten Monat auf der Internationalen IEEE-Konferenz für interaktive Kommunikation zwischen Robotern und Menschen (RO-MAN) in Neu-Delhi, Indien, vorgestellt wurde, ist eine Abkehr von typischen Interaktionsstudien zwischen Mensch und Roboter, die sich in der Regel darauf konzentrieren, wie Menschen und Roboter am besten können zusammenarbeiten.

"Dies ist eine der ersten Studien zur Mensch-Roboter-Interaktion in einer Umgebung, in der sie nicht zusammenarbeiten", sagte Co-Autor Dr. Fei Fang, Assistenzprofessor am Institut für Softwareforschung.

Die Studie hat erhebliche Auswirkungen auf eine Welt, in der die Anzahl der Roboter und IoT-Geräte (Internet of Things) mit künstlicher Intelligenz voraussichtlich exponentiell zunehmen wird.

"Wir können erwarten, dass Heimassistenten kooperativ sind", sagte sie, "aber in Situationen wie Online-Shopping haben sie möglicherweise nicht die gleichen Ziele wie wir."

Die Studie war das Ergebnis eines Studentenprojekts, das Fang unterrichtet. Die Schüler wollten die Verwendung der Spieltheorie und der begrenzten Rationalität im Kontext von Robotern untersuchen und entwarfen daher eine Studie, in der Menschen in einem Spiel namens „Wachen und Schätze“ gegen einen Roboter antreten würden. Forscher, ein sogenanntes Stackelberg-Spiel, untersuchen damit die Rationalität. Fang verwendet es in ihrer Cybersicherheitsforschung, um die Interaktion zwischen Verteidiger und Angreifer zu untersuchen.

Für die Studie spielte jeder Teilnehmer das Spiel 35 Mal mit dem Roboter, wobei er entweder ermutigende Worte vom Roboter genoss oder mit abweisenden Bemerkungen nervös wurde. Obwohl sich die Rationalität der menschlichen Spieler mit zunehmender Anzahl der gespielten Spiele verbesserte, erzielten diejenigen, die vom Roboter kritisiert wurden, nicht so gut wie diejenigen, die gelobt wurden.

Es ist bekannt, dass die Leistung einer Person von den Aussagen anderer beeinflusst wird, aber die Studie zeigt, dass Menschen auch auf die Aussagen von Maschinen reagieren, sagte Dr. Afsaneh Doryab, Systemwissenschaftler am Human-Computer Interaction Institute (HCII) der CMU während des Studium und jetzt Assistenzprofessor für Ingenieurwesen und Umwelt an der University of Virginia.

Die Fähigkeit dieser Maschine, Antworten zu veranlassen, könnte Auswirkungen auf das automatisierte Lernen, die psychische Gesundheitsbehandlung und sogar den Einsatz von Robotern als Begleiter haben, sagte sie.

Zukünftige Arbeiten könnten sich auf den nonverbalen Ausdruck zwischen Robotern und Menschen konzentrieren, sagte Roth, jetzt Ph.D. Student an der University of Maryland. Fang schlägt vor, dass mehr darüber gelernt werden muss, wie verschiedene Maschinentypen - beispielsweise ein humanoider Roboter im Vergleich zu einer Computerbox - beim Menschen unterschiedliche Reaktionen hervorrufen können.

Quelle: Carnegie Mellon University

!-- GDPR -->