Hier ist, wie ein KI-Lügendetektor erkennen kann, wenn du fibst.

Künstliche Intelligenz ist überall – finden Sie heraus, was auf Lebensmittelfotos in Orten wie Yelp zu finden ist, helfen Sie Forschern, MRT-Scans schneller durchzuführen, und suchen Sie sogar nach Anzeichen von Depressionen in der Stimme einer Person. Aber hier ist eine Anwendung, die Sie möglicherweise nicht in Betracht gezogen haben: Lügenerkennung.

Diese Idee – ein KI-Fibre-Snoop – ist in den Nachrichten für ein Grenzsicherheitsprojekt in Europa mit dem Namen iBorderCtrl, das Technologie für “Fehlerkennung” enthält. Die Initiative umfasst einen zweistufigen Prozess, und der Teil der Lügenerkennung findet zu Hause statt. Nach Angaben der Europäischen Kommission beginnt das Protokoll mit einem Vorab-Screening-Prozess, bei dem auf das Geschlecht, die ethnische Zugehörigkeit und die Sprache des Reisenden zugeschnittene Antworten der Reisenden auf Fragen der computergestützten Grenzkontrolle per Webcam erfolgen “Deception Detection” analysierte die Mikroausdrücke von Reisenden, um herauszufinden, ob der Befragte lügt. ”

Es klingt wie Science-Fiction und erinnert natürlich auch an die verstörende Geschichte der Polygraphentests. Ein solches KI-System ist jedoch möglich. Die Frage ist: Wie genau kann es sein?

Rada Mihalcea, Professorin für Informatik und Ingenieurwesen an der Universität von Michigan, arbeitet seit etwa einem Jahrzehnt an der Aufdeckung von Täuschungen. So bauten sie einen KI-Illusionsdetektor und wie er funktioniert.

Das erste, was Forscher, die an künstlicher Intelligenz und maschinellem Lernen arbeiten, benötigen, sind Daten. Im Falle der Arbeit, die Mihalcea geleistet hat, fingen sie an, Videos von aktuellen Gerichtsverfahren zu verwenden. Zum Beispiel könnte ein Angeklagter, der in einem Gerichtsverfahren spricht, in dem er für schuldig befunden wurde, ein Beispiel für Täuschung liefern; Er verwendete auch Zeugnisse als Beispiele für wahrheitsgemäße oder betrügerische Aussagen. (Natürlich sind Algorithmen für maschinelles Lernen nur so gut wie die eingegebenen Daten, und es ist wichtig zu bedenken, dass jemand, der wegen eines Verbrechens verurteilt wurde, tatsächlich unschuldig sein kann.)

Alles in allem verwendeten sie 121 Videoclips und die entsprechenden Abschriften von dem, was sie sagten – ungefähr die Hälfte waren irreführende Aussagen und die andere Hälfte war wahr. Aus diesen Daten wurden Klassifikatoren für maschinelles Lernen erstellt, die letztendlich eine Genauigkeit von 60 bis 75 Prozent aufwiesen.

Eine Sache, die das System bemerkt hat? “Die Verwendung von lügnerischen Pronomen würde dazu tendieren, das Wort” ich “oder” wir “seltener zu verwenden, oder Dinge, die sich auf sich selbst beziehen”, erklärt Mihalcea. “Stattdessen benutzen Menschen, die lügen, eher” dich “,” dein “,” er “,” dich “,” dich “und” dich “. ”

Dies ist nicht das einzige sprachliche Signal: Jemand, der eine Lüge erzählt, würde “stärkere Wörter” verwenden, die “Gewissheit widerspiegeln”, sagt sie. Beispiele für diese Art von Wörtern sind “absolut”, “sehr” und “sehr”. Interessanterweise verwenden Menschen, die die Wahrheit sagen, eher Wörter wie “vielleicht” oder “wahrscheinlich”, um sich abzusichern.

“Ich denke, Leute, die täuschen, würden versuchen, die Lüge, die sie vorgebracht haben, wiedergutzumachen”, sagt sie, “und so versuchen sie, selbst sicherer zu sein.”

In Bezug auf die Gesten weist sie darauf hin, dass jemand, der betrügerisch ist, dem Befragten lieber direkt in die Augen schauen würde. Sie tendierten auch dazu, beide Hände beim Gestikulieren zu benutzen, anstatt nur eine, wie sie vermuteten, um zu versuchen, zu überzeugen. (Das Muster, das sie beschreibt, ist natürlich, dass wenn jemand Sie beim Sprechen ansieht und mit beiden Händen gestikuliert, das nicht bedeutet, dass er lügt.)

Dies sind all die faszinierenden kleinen Datenpunkte, die AI zu bemerken beginnt, nachdem Forscher ihnen Beispiele für das Arbeiten und Lernen gegeben haben. Aber Mihalceas Arbeit ist “nicht perfekt”, gibt sie zu. “Als Forscher sind wir begeistert, dass wir es geschafft haben, 75 Prozent [Genauigkeit] zu erreichen.” Mit anderen Worten, das ist die Fehlerrate von jedem vierten. “Ich halte es aufgrund der 25-prozentigen Fehlerquote für nicht praktikabel.”

Letztendlich sieht sie eine solche Technologie als unterstützende Maßnahme für den Menschen an – zum Beispiel könnte sie darauf hinweisen, dass sie etwas “Ungewöhnliches” in der Aussage eines Redners vermerkt hat und dann vielleicht eine Person mehr “untersuchen” lässt. Und das ist tatsächlich ein gängiger Anwendungsfall für KI: eine Technologie, die das ergänzt, was Menschen tun können.