Hier ist, wie ein KI-Lügendetektor erkennen kann, wenn du fibst.

Künstliche Intelligenz ist überall – sie findet heraus, was auf den Lebensmittelfotos an Orten wie Yelp zu sehen ist, sie hilft Forschern, MRT-Scans schneller zu machen, und sie kann sogar nach Anzeichen von Depressionen in der Stimme von jemandem suchen. Aber hier ist eine Anwendung, die Sie vielleicht noch nicht in Betracht gezogen haben: die Lügendetektion.

Diese Idee – ein KI-Fiberschnüffler – ist in den Nachrichten wegen eines Grenzsicherungsprojekts in Europa namens iBorderCtrl, das eine Technologie zur “Täuschungserkennung” beinhaltet. Die Initiative umfasst einen zweistufigen Prozess, und der Teil der Lügendetektion findet zu Hause statt. Laut der Europäischen Kommission beginnt das Protokoll mit einem Pre-Screening, bei dem Reisende “per Webcam Fragen eines computeranimierten Grenzschutzes beantworten, der auf das Geschlecht, die ethnische Zugehörigkeit und die Sprache des Reisenden zugeschnitten ist. Der einzigartige Ansatz der “Deception Detection” analysiert die Mikroausdrücke von Reisenden, um herauszufinden, ob der Befragte lügt.”

Es klingt nach Science Fiction, und natürlich erinnert es auch an die beunruhigende Geschichte der Polygrafentests. Aber ein solches KI-System ist möglich. Die Frage ist: Wie genau kann sie sein?

Rada Mihalcea, Professorin für Informatik und Ingenieurwesen an der University of Michigan, arbeitet seit etwa einem Jahrzehnt an der Erkennung von Täuschungen. So haben sie einen KI-Täuschungsdetektor konstruiert und wie er funktioniert.

Das erste, was Forscher, die an künstlicher Intelligenz und maschinellem Lernen arbeiten, brauchen, sind Daten. Im Falle der Arbeit, die Mihalcea geleistet hat, begannen sie mit Videos von aktuellen Gerichtsverfahren. So könnte beispielsweise ein Angeklagter, der in einem Prozess spricht, in dem er für schuldig befunden wurde, ein Beispiel für Täuschung liefern; er nutzte auch Zeugenaussagen als Beispiele für wahrheitsgemäße oder betrügerische Aussagen. (Natürlich sind maschinelle Lernalgorithmen nur so gut wie die Daten, die in sie eingegeben werden, und es ist wichtig, sich daran zu erinnern, dass jemand, der wegen eines Verbrechens für schuldig befunden wird, tatsächlich unschuldig sein kann.)

Alles in allem benutzten sie 121 Videoclips und die entsprechenden Transkripte dessen, was sie sagten – ungefähr die Hälfte stellten trügerische Aussagen dar, und die andere Hälfte war wahrheitsgemäß. Es waren diese Daten, mit denen sie maschinell lernende Klassifikatoren bauten, die letztendlich eine Genauigkeitsrate von 60 bis 75 Prozent aufwiesen.

Eine Sache, die das System bemerkt hat? “Der Gebrauch von Pronomen, die lügen, würde dazu neigen, seltener das Wort “Ich” oder “Wir” oder Dinge zu verwenden, die sich auf sich selbst beziehen”, erklärt Mihalcea. “Stattdessen würden Menschen, die lügen, häufiger “dich”, “deine”, “er”, “sie”, “sie” und “sie” benutzen.””

Das ist nicht das einzige sprachliche Signal: Jemand, der eine Lüge erzählt, würde “stärkere Worte” verwenden, die “Gewissheit widerspiegeln”, sagt sie. Beispiele für diese Art von Wörtern sind “absolut”, “sehr” und “sehr”, während interessanterweise Menschen, die die Wahrheit sagen, eher Hedge sind, indem sie Wörter wie “vielleicht” oder “wahrscheinlich” verwenden.

“Ich denke, Leute, die trügerisch sind, würden versuchen, die Lüge, die sie vorbringen, wiedergutzumachen”, sagt sie, “und so versuchen sie, sich selbst sicherer zu sein.”

Was die Gesten betrifft, so weist sie darauf hin, dass jemand, der hinterlistig ist, dem Befragten eher direkt in die Augen schauen würde. Sie tendierten auch dazu, beide Hände beim Gestikulieren zu benutzen, anstatt auch nur ein einziges, wie sie vermutet, als Teil des Versuchs, überzeugend zu sein. (Natürlich sind das Muster, die sie beschreibt: Wenn dir jemand beim Sprechen in die Augen schaut und mit beiden Händen gestikuliert, bedeutet das nicht, dass sie lügen.)

Dies sind all die faszinierenden kleinen Datenpunkte, die die KI zu bemerken beginnen kann, nachdem Forscher ihr Beispiele für die Arbeit mit und das Lernen gegeben haben. Aber Mihalceas Werk ist “nicht perfekt”, gibt sie zu. “Als Forscher sind wir begeistert, dass wir es geschafft haben, 75 Prozent[Genauigkeit] zu erreichen.” Aber anders betrachtet, ist das eine Fehlerquote von jedem Vierten. “Ich glaube nicht, dass es für die Praxis geeignet ist, wegen des 25-prozentigen Fehlers[Rate].”

Letztendlich sieht sie eine solche Technologie als unterstützende Maßnahme für den Menschen – sie könnte beispielsweise darauf hinweisen, dass sie in der Aussage eines Sprechers etwas “Ungewöhnliches” bemerkt hat, und dann vielleicht eine Person haben, die “mehr” untersucht. Und das ist eigentlich ein häufiger Anwendungsfall für KI: eine Technologie, die das ergänzt, was Menschen tun können.