Wissenschaft

#Künstliche Intelligenz als Lügendetektor?

Seit mehr als 100 Jahren versuchen Forschende, einen zuverlässigen Lügendetektor zu entwickeln – bislang erfolglos. Neuen Aufschwung erlebt die Idee, Lügner mit Hilfe möglichst objektiver Messungen zu entlarven, durch die Möglichkeiten der künstlichen Intelligenz. So finden an einigen EU-Außengrenzen Pilotversuche statt, die Einreisewillige mit bösen Absichten identifizieren sollen. Doch Forschende warnen vor solchen Anwendungen. Die Technik sei unzuverlässig und intransparent – und leide wie alle Ansätze zuvor unter einem grundsätzlichen Problem: Bis heute gibt es keine verlässliche theoretische Grundlage für die Annahme, dass Lügen überhaupt an körperlichen Indizien zu erkennen sind.

Wenn die Märchenfigur Pinocchio lügt, ist das für jeden leicht zu erkennen: Mit jeder Lüge wird seine hölzerne Nase ein Stückchen länger. In der Realität allerdings sind bisher keine zuverlässigen Indizien bekannt, an denen sich Lügen ablesen lassen. Sogenannte Lügendetektoren messen Veränderungen von Hautwiderstand, Atemfrequenz uns Herzschlag in der Annahme, dass Lügen eine messbare Aufregung verursacht. Obwohl die wissenschaftliche Grundlage für solche Tests fehlt und zahlreiche Fehleinschätzungen ihre Unzuverlässigkeit demonstrieren, kommen sie bis heute beispielsweise in mehreren US-Bundesstaaten vor Gericht zum Einsatz.

Virtueller Grenzbeamter?

„Außerhalb von Büchern und Filmen gibt es so etwas wie Pinocchios Nase nicht“, betonen die Psychologen Kristina Suchotzki von der Universität Marburg und Matthias Gamer von der Universität Würzburg in einer aktuellen Veröffentlichung. „Es gibt keine stichhaltigen Verhaltenshinweise, die zeigen, wer lügt und wer die Wahrheit sagt, und es wurde keine physiologische oder neuronale Signatur identifiziert, die eindeutig auf eine Täuschung hinweist.“

Doch ungeachtet der fehlenden theoretischen Grundlage sollen neue Projekte mit Hilfe von künstlicher Intelligenz Lügner anhand äußerlicher Hinweise entlarven. Als Beispiel nennen Suchotzki und Gamer das EU-Projekt iBorderCtrl, das tatsächlich bereits an den EU-Außengrenzen Ungarns, Griechenlands und Litauens getestet wurde. Ein mit künstlicher Intelligenz ausgestatteter virtueller Grenzbeamte stellt Einreisewilligen dabei mehrere Fragen zu ihrer Identität und ihren Reiseplänen – und soll währenddessen anhand der per Webcam übertragenen Gesichtsregungen erkennen, ob jemand lügt oder böse Absichten verbirgt.

Intransparent, verzerrt und unzuverlässig

Suchotzki und Gamer sehen dieses und ähnliche Projekte sehr kritisch. „Leider gibt es in der aktuellen Forschung zur KI-gestützten Täuschungserkennung mehrere allgegenwärtige Probleme, darunter die mangelnde Erklärbarkeit und Transparenz, das Risiko der Voreingenommenheit und Mängel bei der theoretischen Fundierung“, erklären sie. Da die KI üblicherweise wie eine Black Box ist, lässt sich nicht nachvollziehen, auf welcher Grundlage sie zu ihren Ergebnissen kommt. „Selbst diejenigen, die die Algorithmen selbst entwickelt haben, können oft ab einem gewissen Punkt nicht mehr erklären, wie ein Urteil aus einem bestimmten Satz von Eingabevariablen erzeugt wird“, schreiben sie. „Das macht es unmöglich, genaue Klassifizierungen nachzuvollziehen und die Gründe für falsche Klassifizierungen aufzuarbeiten.“

Je nachdem, welche Trainingsdaten verwendet wurden, kann es zudem zu systematischen Verzerrungen kommen. Werden beispielsweise zum Training echte Fälle herangezogen, bei denen Menschen vor Gericht verurteilt wurden, können sich mögliche menschliche Vorurteile auf die KI übertragen – etwa, wenn Menschen bestimmten Geschlechts oder bestimmter Hautfarbe häufiger schuldig gesprochen wurden. Labordaten, bei denen Testpersonen gezielt angewiesen wurden, zu lügen, sind dagegen womöglich weniger gut auf die Praxis übertragbar.

Mechanismen der Täuschung verstehen

Um unnötige falsch-positive Zuordnungen zu vermeiden, also zu verhindern, dass Unschuldige als Lügner klassifiziert werden, kommt es laut Suchotzki und Gamer auch auf den jeweiligen Einsatzbereich an. „Bei Massenscreening-Anwendungen werden häufig sehr unstrukturierte und unkontrollierte Bewertungen vorgenommen. Das erhöht die Anzahl der falsch positiven Ergebnisse drastisch“, schreiben sie. Grenzkontrollen per KI-Lügendetektor sind aus Sicht der Forschenden daher problematischer als ein Einsatz bei der strukturierten Vernehmung von Tatverdächtigen in einem Kriminalfall. In diesem Fall könnte es einfacher sein, mögliche alternative Erklärungen für die jeweilige Klassifizierung zu finden und möglicherweise nach gründlicher Abwägung auszuschließen.

Ein grundlegendes Problem bleibt aber: „Dem Einsatz von künstlicher Intelligenz in der Lügendetektion liegt die Annahme zugrunde, dass es möglich ist, ein eindeutiges Indiz oder eine Kombination von Indizien zu identifizieren, die auf eine Täuschung hinweisen“, sagt Suchotzki. Doch selbst ein Jahrhundert Forschung konnte nicht einmal theoretisch belegen, dass solche Indizien überhaupt existieren. Genau dieser Punkt könnte KI in der Lügendetektion aber zumindest wissenschaftlich interessant machen: „Datengestützte Modelle könnten als erster Schritt dienen, um mehr Einblick in die psychologischen Mechanismen der Täuschung zu gewinnen“, schreiben Suchotzki und Gamer. „Ein solcher explorativer Ansatz kann möglich sein, solange er keine direkten Schlussfolgerungen für die Anwendung nach sich zieht.“

Quelle: Kristina Suchotzki (Universität Marburg) et al., Trends in Cognitive Sciences, doi: 10.1016/j.tics.2024.04.002

Wenn Ihnen der Artikel gefallen hat, vergessen Sie nicht, ihn mit Ihren Freunden zu teilen. Folgen Sie uns auch in Google News, klicken Sie auf den Stern und wählen Sie uns aus Ihren Favoriten aus.

Wenn Sie weitere Nachrichten lesen möchten, können Sie unsere Wissenschaft kategorie besuchen.

Quelle

Ähnliche Artikel

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Schaltfläche "Zurück zum Anfang"
Schließen

Please allow ads on our site

Please consider supporting us by disabling your ad blocker!