Forschung nutzt künstliche Intelligenz, um menschliche Emotionen zu messen

Neue Forschungsergebnisse, die auf der Jahrestagung der Cognitive Neuroscience Society (CNS) virtuell vorgestellt wurden, zeigen, wie datengesteuerte Berechnungsmethoden verwendet werden, um die grundlegendsten menschlichen Merkmale - Emotionen - zu erklären. Die Ermittler glauben, dass ihre Ergebnisse alte Vorstellungen über die Struktur von Emotionen in der gesamten Menschheit auf den Kopf stellen werden.

Wissenschaftler wenden Rechenleistung an, um alles zu verstehen, von der Erzeugung spontaner Emotionen während des Gedankenwanderns bis hin zur Dekodierung von Gesichtsausdrücken zwischen den Kulturen.

Die Forscher glauben, dass die Ergebnisse wichtig sind, um zu charakterisieren, wie Emotionen zum Wohlbefinden beitragen, die Neurobiologie psychiatrischer Störungen und sogar wie effektivere soziale Roboter hergestellt werden können.

"Künstliche Intelligenz (KI) ermöglicht es Wissenschaftlern, Emotionen auf eine Weise zu untersuchen, die bisher für unmöglich gehalten wurde. Dies führt zu Entdeckungen, die die Art und Weise verändern, wie wir glauben, dass Emotionen aus biologischen Signalen erzeugt werden", sagte Dr. Kevin LaBar von der Duke University.

Sechs menschliche Kernemotionen - Angst, Wut, Ekel, Traurigkeit, Glück und Überraschung - gelten seit Jahrzehnten als universell in der menschlichen Psychologie. Trotz der gesellschaftlichen Verbreitung dieser Idee behaupten Experten, dass der wissenschaftliche Konsens tatsächlich zeigt, dass diese Emotionen alles andere als universell sind.

Insbesondere bei Menschen aus Ostasien besteht eine erhebliche Lücke in der Gesichtserkennung dieser Emotionen zwischen den Kulturen, insbesondere für Menschen aus Ostasien, sagte Dr. Rachael Jack, ein Forscher an der Universität von Glasgow.

Jack hat daran gearbeitet zu verstehen, was sie die "Sprache des Gesichts" nennt. wie einzelne Gesichtsbewegungen auf unterschiedliche Weise kombiniert werden, um aussagekräftige Gesichtsausdrücke zu erzeugen (wie Buchstaben sich zu Wörtern verbinden).

"Ich denke, das ist ein bisschen so, als würde man versuchen, Hieroglyphen oder eine unbekannte alte Sprache zu knacken", sagte Jack. "Wir wissen so viel über gesprochene und geschriebene Sprache, sogar Hunderte von alten Sprachen, aber wir haben vergleichsweise wenig formale Kenntnisse über die nonverbalen Kommunikationssysteme, die wir jeden Tag verwenden und die für alle menschlichen Gesellschaften so wichtig sind."

In einer neuen Arbeit haben Jack und ihr Team eine neuartige datengesteuerte Methode entwickelt, um dynamische Modelle dieser Gesichtsbewegungen zu erstellen, wie ein Rezeptbuch mit Gesichtsausdrücken von Emotionen. Ihr Team überträgt diese Modelle nun auf digitale Agenten wie soziale Roboter und virtuelle Menschen, damit diese Gesichtsausdrücke erzeugen können, die sozial nuanciert und kulturell sensibel sind.

Aus ihrer Forschung haben sie einen neuartigen Gesichtsbewegungsgenerator entwickelt, der eine Teilmenge einzelner Gesichtsbewegungen wie Augenbrauen hochziehen, Nasenfalten oder Lippenstrecker zufällig auswählen und die Intensität und das Timing jeder Bewegung zufällig aktivieren kann.

Diese zufällig aktivierten Gesichtsbewegungen werden dann kombiniert, um eine Gesichtsanimation zu erstellen. Studienteilnehmer aus verschiedenen Kulturen kategorisieren dann die Gesichtsanimation nach den sechs klassischen Emotionen, oder sie können „andere“ auswählen, wenn sie keine dieser Emotionen wahrnehmen.

Nach vielen solchen Versuchen bauen die Forscher eine statistische Beziehung zwischen den bei jedem Versuch präsentierten Gesichtsbewegungen und den Antworten der Teilnehmer auf, wodurch ein mathematisches Modell erstellt wird.

"Im Gegensatz zu traditionellen theoretischen Ansätzen, bei denen Experimentatoren hypothetische Gesichtsausdrücke verwendeten und sie den Teilnehmern auf der ganzen Welt zeigten, haben wir einen psychophysischen Ansatz hinzugefügt", sagte Jack.

"Es ist datengesteuerter und agnostischer beim Abtasten und Testen von Gesichtsausdrücken und nutzt kritisch die subjektiven Wahrnehmungen kultureller Teilnehmer, um zu verstehen, welche Gesichtsbewegungen ihre Wahrnehmung einer bestimmten Emotion antreiben, zum Beispiel" er ist glücklich "."

Diese Studien haben die sechs allgemein angenommenen universellen Gesichtsausdrücke von Emotionen auf nur vier interkulturelle Ausdrücke verdichtet. "Es gibt erhebliche kulturelle Unterschiede in den Gesichtsausdrücken, die die interkulturelle Kommunikation behindern können", sagte Jack. "Wir stellen oft, aber nicht immer fest, dass ostasiatische Gesichtsausdrücke ausdrucksstärkere Augen haben als westliche Gesichtsausdrücke, die tendenziell ausdrucksstärkere Münder haben - genau wie östliche oder westliche Emoticons!"

Sie fügt hinzu, dass es auch kulturelle Gemeinsamkeiten gibt, die zur Unterstützung einer genauen interkulturellen Kommunikation bestimmter Botschaften verwendet werden können. Zum Beispiel sind Mimik von glücklich, interessiert und gelangweilt in östlichen und westlichen Kulturen ähnlich und können in verschiedenen Kulturen leicht erkannt werden.

Jack und ihr Team verwenden jetzt ihre Modelle, um die sozialen Signalfunktionen von Robotern und anderen digitalen Agenten zu verbessern, die weltweit eingesetzt werden können. "Wir freuen uns sehr, unsere Gesichtsausdruckmodelle auf eine Reihe digitaler Agenten zu übertragen und die dramatische Verbesserung der Leistung zu sehen", sagt sie.

Zu verstehen, wie die subjektive Erfahrung von Emotionen im Gehirn vermittelt wird, ist der heilige Gral der affektiven Neurowissenschaften, sagte LaBar von Duke."Es ist ein schwieriges Problem, und bisher wurden nur geringe Fortschritte erzielt." In seinem Labor arbeiten LaBar und Kollegen daran, die Emotionen zu verstehen, die entstehen, wenn das Gehirn in Ruhe umherirrt.

"Ob durch innere Gedanken oder Erinnerungen ausgelöst, diese Emotionen des Bewusstseinsstroms sind das Ziel von Wiederkäuen und Sorgen, die zu längeren Stimmungszuständen führen und das Gedächtnis und die Entscheidungsfindung beeinflussen können", sagte er.

Bis vor kurzem war es Forschern nicht möglich, diese Emotionen aus Ruhezustands-Signalen der Gehirnfunktion zu entschlüsseln. Jetzt konnte das LaBar-Team Tools für maschinelles Lernen anwenden, um Bildgebungsmarker für eine kleine Reihe von Emotionen wie Angst, Wut und Überraschung abzuleiten. Darüber hinaus haben die Forscher modelliert, wie diese Emotionen spontan im Gehirn auftreten, während sich die Probanden in einem MRT-Scanner ausruhen.

Der Kern der Arbeit bestand darin, einen Algorithmus für maschinelles Lernen zu trainieren, um Muster der Gehirnaktivität zu unterscheiden, die Emotionen voneinander trennen. Die Forscher präsentieren einen Musterklassifizierungsalgorithmus mit einem Trainingsdatensatz einer Gruppe von Teilnehmern, denen Musik- und Filmclips präsentiert wurden, die bestimmte Emotionen hervorriefen.

Mithilfe von Feedback lernt der Algorithmus, die Eingaben aus verschiedenen Regionen des Gehirns abzuwägen, um die Signalübertragung jeder Emotion zu optimieren. Die Forscher testen dann, wie gut der Klassifikator die ausgelösten Emotionen in einer neuen Stichprobe von Teilnehmern anhand der aus der Teststichprobe erzeugten Gehirngewichte vorhersagen kann.

"Sobald die emotionsspezifischen Gehirnmuster auf diese Weise subjektübergreifend validiert sind, suchen wir nach Beweisen dafür, dass diese Muster bei Teilnehmern, die lediglich im Scanner ruhen, spontan auftreten", sagte Labar.

"Wir können dann feststellen, ob der Musterklassifizierer die Emotionen, die Menschen spontan im Scanner melden, genau vorhersagt, und individuelle Unterschiede identifizieren."

Quelle: Cognitive Neuroscience Society / EurekAlert

!-- GDPR -->