Neuer Ansatz zur Lügenerkennung verwendet reale Gerichtsverfahren

Durch die sorgfältige Beobachtung von Personen, die in Gerichtsverfahren mit hohen Einsätzen Lügen erzählen, entwickeln Forscher der University of Michigan eine einzigartige Lügenerkennungssoftware, die auf realen Daten basiert.

Ihr Lügenerkennungsmodell berücksichtigt sowohl die Wörter als auch die Gesten der Person und muss im Gegensatz zu einem Polygraphen den Sprecher nicht berühren, um zu arbeiten.

In Experimenten konnte der Prototyp bis zu 75 Prozent genau identifizieren, wer eine Lüge erzählte (wie durch die Versuchsergebnisse definiert), verglichen mit den Werten des Menschen von knapp über 50 Prozent. Das Tool könnte eines Tages für Sicherheitskräfte, Jurys und sogar psychiatrische Fachkräfte hilfreich sein.

Die Forscher sagen, dass sie mehrere rote Fahnen des Lügenverhaltens identifiziert haben. In den Videos beispielsweise haben Lügenmenschen ihre Hände mehr bewegt. Sie versuchten sicherer zu klingen. Und etwas kontraintuitiv war es etwas wahrscheinlicher, dass sie ihren Fragestellern in die Augen schauten, als Menschen dachten, unter anderem die Wahrheit zu sagen.

Um die Software zu entwickeln, verwendeten die Forscher Techniken des maschinellen Lernens, um sie auf einem Satz von 120 Videoclips aus der Medienberichterstattung über aktuelle Versuche zu trainieren. Einige der von ihnen verwendeten Clips stammen von der Website von The Innocence Project, einer nationalen Organisation, die sich dafür einsetzt, die zu Unrecht Verurteilten zu entlasten.

Der Aspekt der „realen Welt“ der Arbeit ist einer der Hauptunterschiede.

"In Laborexperimenten ist es schwierig, eine Umgebung zu schaffen, die Menschen dazu motiviert, wirklich zu lügen. Der Einsatz ist nicht hoch genug “, sagte Dr. Rada Mihalcea, Professor für Informatik und Ingenieurwesen, der das Projekt mit Dr. Mihai Burzo, Assistenzprofessor für Maschinenbau an der Universität von Michigan, leitet.

„Wir können eine Belohnung anbieten, wenn die Leute gut lügen können - zahlen Sie sie, um eine andere Person davon zu überzeugen, dass etwas Falsches wahr ist. Aber in der realen Welt gibt es echte Motivation zu täuschen. “

Die Videos enthalten Aussagen von Angeklagten und Zeugen. In der Hälfte der Clips gilt das Motiv als lügend. Um festzustellen, wer die Wahrheit sagte, verglichen die Forscher ihre Aussagen mit Gerichtsurteilen.

Die Forscher transkribierten das Audio, einschließlich der Stimmfüllung wie „ähm, ah und ähm“. Anschließend analysierten sie, wie oft Probanden verschiedene Wörter oder Wortkategorien verwendeten. Sie zählten auch die Gesten in den Videos unter Verwendung eines Standardcodierungsschemas für zwischenmenschliche Interaktionen, das neun verschiedene Bewegungen von Kopf, Augen, Stirn, Mund und Händen bewertet.

Dann haben sie die Daten in ihr System eingegeben und es ermöglicht, die Videos zu sortieren. Wenn Eingaben sowohl aus den Worten als auch aus den Gesten des Sprechers verwendet wurden, war es zu 75 Prozent genau, zu identifizieren, wer gelogen hat. Das ist viel besser als Menschen, die es einfach besser gemacht haben als ein Münzwurf.

"Die Menschen sind arme Lügendetektoren", sagte Mihalcea. "Dies ist nicht die Art von Aufgabe, in der wir natürlich gut sind.

"Es gibt Hinweise, die Menschen auf natürliche Weise geben, wenn sie täuschen, aber wir achten nicht genau genug darauf, um sie aufzunehmen. Wir zählen nicht, wie oft eine Person "Ich" sagt oder aufschaut. Wir konzentrieren uns auf ein höheres Kommunikationsniveau. "

In den Clips von Menschen, die lügen, fanden die Forscher die folgenden häufigen Verhaltensweisen:

  • Lügner blickten eher finster oder verzerrten das ganze Gesicht. Dies war in 30 Prozent der Lügenclips gegenüber 10 Prozent der wahrheitsgemäßen;
  • Lügner sahen den Fragesteller in 70 Prozent der Lügenclips eher direkt an als 60 Prozent der Wahrhaftigen.
  • In 40 Prozent der Lügenclips gestikulierten Lügner eher mit beiden Händen als in 25 Prozent der Wahrhaftigen.
  • Lügner verwendeten eher Stimmfüllungen wie „ähm“.
  • Lügner distanzierten sich eher mit Worten wie „er“ oder „sie“ als mit „ich“ oder „wir“ von der Handlung und verwendeten Sätze, die Gewissheit widerspiegelten.

"Wir integrieren physiologische Parameter wie Herzfrequenz, Atemfrequenz und Schwankungen der Körpertemperatur, die alle mit nicht-invasiver Wärmebildgebung erfasst werden", sagte Burzo. „Die Erkennung von Täuschungen ist ein sehr schwieriges Problem. Wir kommen aus verschiedenen Blickwinkeln darauf. “

Für diese Arbeit klassifizierten die Forscher selbst die Gesten, anstatt sie vom Computer ausführen zu lassen. Sie trainieren gerade den Computer dafür.

Die Ergebnisse wurden auf der Internationalen Konferenz für multimodale Interaktion vorgestellt und im Konferenzbericht 2015 veröffentlicht.

Quelle: Universität von Michigan

!-- GDPR -->