Wissenschaft

#Ein neues System gegen Deepfakes

„Ein neues System gegen Deepfakes

Technische Fortschritte haben es inzwischen immer einfacher gemacht, Bilder und Videos zu fälschen und sogenannte Deepfakes zu erzeugen. Betroffen davon sind zunehmend auch Politiker wie der ukrainische Präsident Wolodymyr Selenskyj. Ein System, um speziell die gefälschten Videos solcher Prominenter zu entlarven, haben nun zwei Forscher entwickelt. Es beruht auf lernfähigen Algorithmen, die anhand von authentischem Videomaterial unzählige biometrische, sprachliche und gestische Eigenheiten der Zielperson lernen – und selbst geringe Abweichungen davon erkennen. Im Test erkannten die Systeme echte Aufnahmen von Präsident Selenskyj mit 99,99 Prozent Genauigkeit und entlarven Deepfakes.

Jeden Tag schauen wir unzähligen Menschen ins Gesicht. Für unser Sozialverhalten ist es dabei enorm wichtig, dass wir das Antlitz unserer Mitmenschen unterscheiden und wiedererkennen können. Kein Wunder also, dass die Fähigkeit zur Gesichtserkennung bei uns gut ausgeprägt ist und unser Gehirn sogar spezielle Zentren für die Gesichtserkennung besitzt: Ein Blick genügt und wir wissen, wen wir vor uns haben – jedenfalls normalerweise. Doch neue digitale Technologien machen dies inzwischen nicht mehr ganz so einfach: Denn nicht immer steckt hinter dem Gesicht in einem Video tatsächlich die Person, der dieses im realen Leben gehört. Bei sogenannten Deepfakes werden Gesichter einfach ausgetauscht – und Personen Worte in den Mund gelegt, die sie nie gesagt haben.

Zunehmende Gefahr von Deepfakes bei Politikern

Solche Deepfakes wurden schon in Betrugs- und Erpressungsversuchen eingesetzt, werden aber auch für politische Zwecke missbraucht. Im März 2022, kurz nach Beginn des Ukrainekriegs, tauchte beispielsweise ein Video im Internet auf, in dem der ukrainische Präsident Wolodymyr Selenskyj die Niederlage im Krieg gegen Russland und die Kapitulation zu erklären schien. Zwar wurde dieses Video aufgrund der eher kruden Audio- und Videotechnik bald als Deepfake entlarvt, aber erst, nachdem es schon über soziale Medien verbreitet worden war und sogar im ukrainischen Fernsehen aufgetaucht war. Drei Monate später täuschte ein weiterer Deepfake erfolgreich die Bürgermeister der Städte Berlin, Madrid und Wien, als diese glaubten, in einer Videokonferenz mit Vitali Klitschko, dem Bürgermeister von Kiew zu sprechen. “Diese jüngsten Ereignisse sind erst der Anfang einer neuen Welle von Deepfake-Angriffen auf aufgezeichnete und live versendete Videos”, erklären Hany Farid von der University of California in Berkeley und Matyas Bohacek vom Kepler-Gymnasium in Prag.

Je weiter die technischen Möglichkeiten solcher Deepfakes fortschreiten, desto schwerer wird es für unsere Wahrnehmung, die Fälschungen zu erkennen. Deshalb werden schon jetzt verschiedenen Technologien eingesetzt, um Deepfakes zu identifizieren. Gängige Methoden suchen dabei beispielsweise nach Artefakten in den Videodateien, wie sie durch das Einmontieren der falschen Mundbewegungen oder Gesichter entstehen. Andere Verfahren nutzten Systeme der künstlichen Intelligenz, um diese auf die Unterscheidung von Fälschungen zu trainieren. Auch biometrische Vergleiche werden eingesetzt, um die Identität der abgebildeten Personen zu überprüfen. Dafür müssen die entsprechenden Merkmale der Originalperson allerdings zunächst erfasst und präzise ausgewertet werden – ein bisher relativ aufwendiger Prozess.

Lernfähige Algorithmen und Selenskyjs Eigenheiten

Doch nach Ansicht von Farid und Bohacek lohnt sich der Identitäts-basierte Ansatz vor allem bei stark exponierten Personen wie den Regierungsvertretern großer Nationen durchaus und er wird durch das von diesen Personen reichlich verfügbare Videomaterial zudem erleichtert. “Wenn es um den Schutz solcher Politiker von Weltrang geht, ist unsere Meinung nach daher eine Identitäts-basierte Methode der sinnvollste und robusteste Ansatz”, konstatieren die Forscher. Mithilfe eines lernfähigen Algorithmus haben sie ein solches System entwickelt – und aus aktuellem Anlass den ukrainischen Präsidenten Selenskyj als Testobjekt genutzt. Um zunächst charakteristische, besonders gut zur Erkennung geeignete Merkmale zu identifizieren, analysierten die Wissenschaftler insgesamt 506 Minuten an Videoaufnahmen, die Selenskyj bei öffentlichen Reden, in Pressekonferenzen und in von ihm gemachten Videobotschaften zeigten. “Unserer Erfahrung nach sind für solche Analysen mindestens acht Stunden an Videomaterial nötig”, erklären Farid und Bohacek. Die lernfähigen Analysesysteme werteten dabei biometrische Daten der Gesichts- und Körperbewegungen aus, aber auch stimmliche und sprachliche Eigenheiten.

Aus diesen Analysen resultierte ein Satz von 780 Merkmalen, die den ukrainischen Präsidenten charakterisieren. Auf Basis dieser Merkmale konnten Algorithmen ihn mit 99,99 Prozent Treffsicherheit von vier Deepfakes und 250 Vergleichspersonen unterscheiden. Neben vielen Eigenheiten mit geringerer Aussagekraft, fanden sich unter den identifizierten Merkmalen Selenskyjs auch einige, die schon für sich genommen mehr als zehn Prozent zur Genauigkeit der Identifizierung beitrugen: “Das hervorstechendste Merkmal ist eine Neigung Präsident Selenskyjs, mit seinem linken Arm zu gestikulieren, während sein rechter Arm an der Seite herunterhängt”, berichten die Forscher. “Das erzeugt eine starke Korrelation zwischen der Bewegung seines rechten Ellenbogens und der rechten Schulter, wenn er sich von Seite zu Seite bewegt.” Auch eine Asymmetrie im Lächeln Selenskyj erwies sich als aussagekräftig. “Solche hochgradig spezifischen Korrelationen dürften es Deepfakern erschweren, die individuellen Manierismen im Verhalten einer Person voll zu erfassen und zu reproduzieren”, so die Wissenschaftler.

Farid und Bohacek halten es daher für sinnvoll und vielversprechend, gezielt solche Prüfmodelle für wichtige Persönlichkeiten der Politik und des öffentlichen Lebens zu erzeugen, um Deepfakes dann schnell entlarven zu können. Um mögliche Gegenmaßnahmen von Seiten der Fälscher zu vermeiden, haben sie ihre Algorithmen nicht öffentlich zugänglich gemacht. “Wir werden unsere Klassifizierer aber seriösen Medien und Regierungsbehörden zur Verfügung stellen, damit sie Desinformationskampagnen bekämpfen können”, so die Forscher.

Quelle: Hany Farid (University of California, Berkeley) und Matyas Bohacek (Johannes- Kepler-Gymnasium, Prag), Proceedings of the National Academy of Sciences, doi: 10.1073/pnas.2216035119

Wenn Ihnen der Artikel gefallen hat, vergessen Sie nicht, ihn mit Ihren Freunden zu teilen. Folgen Sie uns auch in Google News, klicken Sie auf den Stern und wählen Sie uns aus Ihren Favoriten aus.

Wenn Sie an Foren interessiert sind, können Sie Forum.BuradaBiliyorum.Com besuchen.

Wenn Sie weitere Nachrichten lesen möchten, können Sie unsere Wissenschaft kategorie besuchen.

Quelle

Ähnliche Artikel

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Schaltfläche "Zurück zum Anfang"
Schließen

Please allow ads on our site

Please consider supporting us by disabling your ad blocker!