Nachrichten

#Künstliche Intelligenz: Gefährliche Deepfakes

Viele Erfindungen waren nicht deshalb bahnbrechend, weil sie etwas völlig Neues möglich gemacht hätten. Sondern weil sie etwas schneller und einfacher möglich machten als je zuvor. Zum Beispiel das Auto. Menschen waren auch in Pferdekutschen von Dorf zu Dorf gelangt. Aber das Auto brachte sie in derselben Zeit von Land zu Land. Eine Revolution. Oder das Maschinengewehr. Menschen konnten Menschen auch vorher schon töten. Aber nun konnte ein Mensch binnen einer Minute Hunderte Schuss abfeuern und andere niedermähen, bevor sie ihre Handfeuerwaffen auch nur ho­ben. Die Waffe veränderte die Art, wie Kriege geführt wurden.

Eine bahnbrechende Erfindung gibt es jetzt wieder. Manche winken noch ab und sagen: Was die kann, ist doch nichts Neues. Die Rede ist von sogenannten Deepfakes, also von ge­fälschten Fotos, Videos und Stimmen. Computerprogramme erzeugen sie. Bilder wie jene, die kürzlich kursierten: Der Papst im weißen Parka, oder der frühere amerikanische Präsident Donald Trump, wie er sich ge­gen Polizisten wehrt.

Und es stimmt ja, ähnliche Bilder gibt es schon lange. Manipulierte Bilder wurden schon immer politisch eingesetzt. Stalin ließ Trotzki aus Fotos mit Lenin herausretuschieren, Hitler Goebbels tilgen aus gemeinsamen Bildern mit Leni Riefenstahl. Im Ersten Weltkrieg wurden Fotos bearbeitet, um mit dramatischen Motiven von der Front die Deutschen aufzupeitschen. Aber wie gesagt: Wenn etwas schneller und einfacher geht als je zuvor, kann das alles ändern. Umstürze leben von Dynamiken.

Die Strategie der AfD

Gefälschte Bilder kann heute jeder leichter und billiger herstellen als echte. Er muss nicht mal vor die Tür gehen, geschweige denn Photoshop beherrschen. Er braucht auch keine zwei Stunden, bis das Bild täuschend echt aussieht. Es reicht, für ein paar Euro ein Programm für sich arbeiten zu lassen. Binnen weniger Minuten erfüllt es jeden Wunsch.

Emmanuel Macron, wie er einen Mann küsst. Ein Klimaaktivist, der die Reifen ei­nes Rettungswagens zersticht. Ein Polizist, der einem Schulkind mit der Faust ins Gesicht schlägt. CDU-Chef Merz beim Abendessen mit AfD-Chef Chrupalla. Wer meint, er fiele auf so etwas nicht herein, der muss sich umgekehrt fragen, was er überhaupt noch glauben will. Armin La­schet im Flutgebiet, lachend – wirklich? Oder doch gefälscht?

Bundestagsabgeordnete der AfD haben in den vergangenen Wochen damit begonnen, Deepfakes politisch einzusetzen. Sie ließen die Programme künstliche Fotos von arabisch aussehenden Männern mit wutverzerrten Gesichtern erzeugen, außerdem einen wahnwitzig blickenden Gesundheitsminister Karl Lauterbach und ein deutsches Mütterchen im Rollstuhl, hoffnungs­loser Blick, kein Wunder, es musste „Platz für Migranten“ machen.

Einer der Abgeordneten, ein stellvertretender Fraktionsvorsitzender, ließ wissen, „selbstverständlich“ setze er „jetzt und in Zukunft auf KI-Bilder“, also solche, die von Künstlicher In­telligenz generiert wurden. Der Mann ist kein Computernerd. Er tut, was jeder tun kann. Als in der vergangenen Woche Anklage erhoben wurde gegen Trump, twitterte dessen Sohn Eric ein Bild, das seinen Vater zeigt, wie der stolz voranschreitet, gefolgt von einer Menschenmasse unter Sternenbannern. Eine Fälschung. Noch verraten oft kleine technische Fehler, dass ein Bild künstlich erzeugt wurde. Das wird bald vorbei sein.

Über Deepfakes reden

Und auch jetzt schon strömen die Bilder in einem Tempo durch die sozialen Netzwerke, das sie jeder genauen Betrachtung entzieht. Die Nutzer müssen in Sekunden einschätzen, ob eine Aufnahme echt ist oder nicht. Schwierig, denn viele su­chen dringender nach Bestätigung als nach Quellenangaben. Daraus er­gibt sich eine Gefahr, die schon heute Folgen hat: Menschen kapitulieren vor der Frage, was eine Fälschung sein könnte, und kommen zu dem fatalistischen Schluss, dass man oh­nehin nichts mehr glauben könne.

Das bedroht die Demokratie, denn sie gründet auf Vertrauen. Gut ist, dass die Europäische Union den Einsatz von KI regulieren will, das Ge­setz soll in diesem Jahr kommen. Aber das wird nicht reichen, solange die Bundesregierung beim Thema Deepfakes hofft, Digitalkompetenz – wo auch immer die so schnell herkommen soll – machte die Bürger schon widerstandsfähig gegen Täuschungen. Und der Verfassungsschutz kann noch so nachdrücklich ra­ten, Videos nicht auf dem Handy anzuschauen, sondern auf größeren Bildschirmen, weil da etwa Unstimmigkeiten im Hautbild bei Fakes leichter auffielen. Den Kampf Um­sicht gegen Smartphone hat das Smartphone längst gewonnen.

Der erste Schritt wäre, dass über Deepfakes politisch so viel und gründlich gesprochen wird, wie es der Sache angemessen ist. Davon wird abhängen, wie wir künftig die Welt sehen.

Wenn Ihnen der Artikel gefallen hat, vergessen Sie nicht, ihn mit Ihren Freunden zu teilen. Folgen Sie uns auch in Google News, klicken Sie auf den Stern und wählen Sie uns aus Ihren Favoriten aus.

Wenn Sie an Foren interessiert sind, können Sie Forum.BuradaBiliyorum.Com besuchen.

Wenn Sie weitere Nachrichten lesen möchten, können Sie unsere Nachrichten kategorie besuchen.

Quelle

Ähnliche Artikel

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Schaltfläche "Zurück zum Anfang"
Schließen

Please allow ads on our site

Please consider supporting us by disabling your ad blocker!