Gesichtsausdrücke allein vermitteln möglicherweise keinen emotionalen Zustand

Neue Forschungsergebnisse verdeutlichen, dass emotionale Intelligenz viel mehr beinhaltet als das Lesen der Mikroausdrücke von Menschen. Wenn es darum geht, den Geisteszustand einer Person zu lesen, ist der visuelle Kontext von Hintergrund und Handlung ebenso wichtig wie Mimik und Körpersprache.

Forscher der University of California in Berkeley geben das Beispiel des Schauspielers James Franco im Oscar-nominierten Film „127 Stunden“. In einer Szene sieht Franco vage glücklich aus, als er ein Videotagebuch im Film aufzeichnet. Aber wenn die Kamera herauszoomt, sieht das Publikum, dass sein Arm unter einem Felsbrocken gequetscht ist und dass sein Lächeln seiner Qual widerspricht.

Der neue Standpunkt stellt jahrzehntelange Forschungen in Frage, wonach emotionale Intelligenz und Erkennung weitgehend auf der Fähigkeit beruhen, Mikroausdrücke im Gesicht zu lesen. Es wurde angenommen, dass die Ausdrücke ein Indikator für Glück, Traurigkeit, Wut, Angst, Überraschung, Ekel, Verachtung und andere positive und negative Stimmungen und Gefühle sind.

Die neue Studie soll diese Woche online im Journal erscheinen Verfahren der Nationalen Akademie der Wissenschaftendeutet darauf hin, dass emotionale Erkennung mehr erfordert als ein "Lesen" im Gesicht.

"Unsere Studie zeigt, dass die Erkennung von Emotionen im Kern sowohl eine Frage des Kontextes als auch der Gesichter ist", sagte der Hauptautor Zhimin Chen, Doktorand in Psychologie an der UC Berkeley.

In der Studie verwischten Forscher die Gesichter und Körper von Schauspielern in Dutzenden gedämpfter Clips aus Hollywood-Filmen und Heimvideos. Trotz der virtuellen Unsichtbarkeit der Charaktere konnten Hunderte von Studienteilnehmern ihre Emotionen genau lesen, indem sie den Hintergrund und die Interaktion mit ihrer Umgebung untersuchten.

Mit dem von Chen für die Studie erstellten Modell „Affective Tracking“ können Forscher verfolgen, wie Menschen die Moment-zu-Moment-Emotionen von Charakteren beim Betrachten von Videos bewerten.

Chens Methode ist in der Lage, große Datenmengen in kurzer Zeit zu sammeln und könnte schließlich verwendet werden, um zu messen, wie Menschen mit Störungen wie Autismus und Schizophrenie Emotionen in Echtzeit lesen und bei ihren Diagnosen helfen.

"Einige Menschen haben möglicherweise Defizite beim Erkennen von Gesichtsausdrücken, können aber Emotionen aus dem Kontext erkennen", sagte Chen. "Für andere ist es das Gegenteil."

Darüber hinaus könnten die Ergebnisse, die auf statistischen Analysen der gesammelten Bewertungen beruhen, die Entwicklung der Gesichtserkennungstechnologie beeinflussen.

"Derzeit entwickeln Unternehmen Algorithmen für maschinelles Lernen, um Emotionen zu erkennen. Sie trainieren ihre Modelle jedoch nur auf beschnittenen Gesichtern und diese Modelle können nur Emotionen aus Gesichtern lesen", sagte Chen. "Unsere Forschung zeigt, dass Gesichter wahre Emotionen nicht sehr genau offenbaren und dass die Identifizierung der Geisteshaltung einer Person auch den Kontext berücksichtigen sollte."

Für die Studie testeten Chen und der leitende Autor der Studie, Dr. David Whitney, ein Vision-Wissenschaftler und Psychologieprofessor der UC Berkeley, die Emotionserkennungsfähigkeiten von fast 400 jungen Erwachsenen. Die visuellen Reize, die sie verwendeten, waren Videoclips aus verschiedenen Hollywood-Filmen sowie Dokumentationen und Heimvideos, die emotionale Reaktionen in natürlicheren Umgebungen zeigten.

Die Studienteilnehmer gingen online, um die Videoclips anzusehen und zu bewerten. Über dem Video wurde ein Bewertungsraster eingeblendet, damit die Forscher den Cursor jedes Studienteilnehmers verfolgen konnten, während er sich auf dem Bildschirm bewegte, visuelle Informationen verarbeitete und Emotionen von Moment zu Moment bewertete.

Im ersten von drei Experimenten betrachteten 33 Studienteilnehmer Interaktionen in Filmclips zwischen zwei Charakteren, von denen einer verschwommen war, und bewerteten die wahrgenommenen Emotionen des verschwommenen Charakters. Die Ergebnisse zeigten, dass die Studienteilnehmer nicht nur aufgrund ihrer zwischenmenschlichen Interaktionen, sondern auch aufgrund der Ereignisse im Hintergrund ableiteten, wie sich der unsichtbare Charakter fühlte.

Als nächstes sahen sich ungefähr 200 Studienteilnehmer Videoclips an, die Interaktionen unter drei verschiedenen Bedingungen zeigten: einen, in dem alles sichtbar war, einen anderen, in dem die Zeichen verschwommen waren, und einen anderen, in dem der Kontext verschwommen war. Die Ergebnisse zeigten, dass der Kontext für die Entschlüsselung von Emotionen genauso wichtig ist wie die Gesichtserkennung.

Im abschließenden Experiment sahen sich 75 Studienteilnehmer Clips aus Dokumentationen und Heimvideos an, damit die Forscher die Erkennung von Emotionen in naturalistischeren Umgebungen vergleichen konnten. Auch hier war der Kontext für die Schlussfolgerung der Emotionen der Charaktere ebenso wichtig wie ihre Mimik und Gesten.

"Insgesamt deuten die Ergebnisse darauf hin, dass der Kontext nicht nur ausreicht, um Emotionen wahrzunehmen, sondern auch notwendig ist, um die Emotionen einer Person wahrzunehmen", sagte Whitney, Psychologieprofessor an der UC Berkeley. "Seien Sie ehrlich, das Gesicht reicht nicht aus, um Emotionen wahrzunehmen."

Quelle: Universität von Kalifornien Berkeley

!-- GDPR -->