Technologie

#Vergiss Deepfakes, neue Bildbearbeitungs-AI sprengt die Vorstellungskraft

„Vergiss Deepfakes, neue Bildbearbeitungs-AI sprengt die Vorstellungskraft“

Die Zahl an AIs, die zur Bilderstellung und -manipulation genutzt werden, wächst stetig. Generierte Inhalte mit dieser Bildbearbeitungs-AI können dabei täuschend echt ausfallen. Auf den ersten Blick sind vielen von ihnen nicht mehr von echten Fotos zu unterscheiden. Es ist Vorsicht geboten.

Vergiss Deepfakes - neue Bildbearbeitungs-AI sprengt die Vorstellungskraft
Vergiss Deepfakes – neue Bildbearbeitungs-AI sprengt die VorstellungskraftBildquelle: Openai

Die Technologie entwickelt sich weiter. AI generierte Inhalte sind mittlerweile täuschend echt geworden. Auf den ersten Blick lassen sich viele der angefertigten Bilder nicht mehr von echten Bildern unterscheiden. Darum ist Vorsicht geboten, worauf du im Netz stößt. Nicht bei jedem Werk solltest du deinen Augen blind vertrauen. Die Kreationen dieser neuen Bildbearbeitungs-AI sprengen die Vorstellungskraft gewaltig.

Eine weitere AI in Aktion DALL-E 2

DALL-E 2 ist eine weitere AI, die zur Bildgenerierung im Internet an Aufmerksamkeit gewonnen hat. Ähnlich wie bereits Artflow.ai oder Googles Imagen generiert sie Inhalte auf Basis der Texteingabe von Nutzern. Dadurch entstehen realistische Bilder und Kunstwerke, auf die die AI mithilfe von Lerninhalten programmiert wurde. DALL-E 2 ist dabei eine Weiterführung von DALL-E und wird als Projekt betrieben, um Machine Learning zu erforschen. Für diese Software ist somit künftig keine kommerzielle Nutzung angedacht.

Es ist jedoch möglich, sie für private Zwecke einzusetzen – und daraus könnten sich weitere Probleme ergeben. DALL-E 2 beschränkt den Zugang für Erstnutzer zwar auf ein gewisses Testkontingent. Letztlich kann jedoch nicht ausgeschlossen werden, dass einer der künftigen Benutzer generierte Inhalte irgendwo für fragwürdige Zwecke einsetzt. Dessen scheint sich das Projekt selbst auch bewusst zu sein, denn es behält sich vor, Bewerbungen von Anwendern abzulehnen, bei denen ein solches Nutzungsrisiko besteht. Dadurch kann das Risiko zumindest reduziert, wenn auch nicht vermieden werden.

Das Originalfoto vor der Bearbeitung mit der neuen Bildbearbeitungs-AI
Das Originalfoto vor der Bearbeitung mit der neuen Bildbearbeitungs-AI

Neue Bildbearbeitungs-AI mit großem Leistungsvermögen

Dabei ist das Leistungsvermögen von DALL-E 2 beeindruckend. Die neue Bildbearbeitungs-AI ist in der Lage realistische 8K-Aufnahmen von Tieren oder Orten zu generieren, die sich nur schwer von einem Original unterscheiden lassen. Auch die Erstellung vieler generierter Kunstwerke, die sich am Zeichenstil von anderen Gemälden orientieren, ist ohne Weiteres möglich. Um das zu erreichen, haben die Betreiber der Software DALL-E 2 mit viel Lernmaterial angefüttert, um der AI beizubringen, wichtige Charakteristiken von Personen, Tieren, Orten und Kunstwerken nachzubilden.

Dieser Cookie sieht zum Anbeißen aus, ist leider aber nicht echt
Dieser Cookie sieht zum Anbeißen aus, existiert aber leider nicht.

Auch die Art der Verknüpfung mit den Worten ist dabei entscheidend. Schließlich muss die AI verstehen, was User von ihr erwarten, wenn sie von „Fotos“, „Hunden“ oder „Gemälden“ sprechen. Das Potenzial, das DALL-E 2 bietet, ist dabei vielversprechend. Doch gerade wegen der realistisch generierten Inhalte könnte das Risiko, dass jemand die geschaffenen Bilder missbraucht, groß sein. DALL-E 2 selbst versieht zwar jedes generierte Bild mit einer Farbcodierung als Signatur in der unteren rechten Ecke. Es ist jedoch nicht schwer diese zu entfernen und das Bild zu verkleinern, wenn jemand das Erzeugnis anderweitig nutzen wollte.

Nicht die AI ist schuld für Ihren Verwendungszweck

Trotz aller Kritikpunkte an der Generierung oder Veränderung von Inhalten auf AI sollte man klarstellen, dass die Technologien selbst nicht über ihren Verwendungszweck bestimmt. Mithilfe von Machine Learning und AI können eine Menge nützlicher und hilfreicher Kreationen geschaffen werden. Leider wird es jedoch immer Menschen geben, die ein solches Werkzeug in dem Versuch nutzen, sich dadurch einen Vorteil zu verschaffen. Sei es nun, dass manipulierte Aufnahmen eines anderen Menschen als Deepfake auftauchen, um der Person zu schaden oder eine manipulierte Spendensammel-Aufrufaktion das Geld vieler gutgläubiger Helfer einsackt.

Darum ist es umso wichtiger, dass du wachsam und skeptisch bei Inhalten im Internet bleibst. Wie wahrscheinlich ist es, dass die dargestellte Person tatsächlich das dargestellte ausführt? Gibt es Hinweise auf einen Veranstalter oder Inhaber der Seite, auf der die Inhalte bereitstehen? Sei misstrauisch, wenn dir dein Bauchgefühl zu denken gibt oder du über etwas Unerwartetes stößt. Achte genau auf entsprechende Lichtverhältnisse in den Bildern und suche nach Unstimmigkeiten. Häufig haben wir als Lebewesen, die viel visuelle Daten verarbeiten, bereits eine unterbewusste Vorstellung davon, dass etwas nicht stimmt. Was genau mit einer Darstellung irritiert, wird jedoch häufig erst bei genauerer Betrachtung klarer. Bei Videoaufnahmen solltest du zudem skeptisch sein, wenn nur ein sehr geringer Wortschatz verwendet sowie eine starre Mimik präsentiert wird.

Bildquellen

  • Das Originalfoto vor der Bearbeitung durch DALL E 2: Openai
  • Dieser Cookie sieht zum Anbeißen aus, ist leider aber nicht echt: Openai
  • Vergiss Deepfakes – neue Bildbearbeitungs-AI sprengt die Vorstellungskraft: Openai

Wenn Ihnen der Artikel gefallen hat, vergessen Sie nicht, ihn mit Ihren Freunden zu teilen. Folgen Sie uns auch in Google News, klicken Sie auf den Stern und wählen Sie uns aus Ihren Favoriten aus.

Wenn Sie an Foren interessiert sind, können Sie Forum.BuradaBiliyorum.Com besuchen.

Wenn Sie weitere Nachrichten lesen möchten, können Sie unsere Technologie kategorie besuchen.

Quelle

Ähnliche Artikel

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Schaltfläche "Zurück zum Anfang"
Schließen

Please allow ads on our site

Please consider supporting us by disabling your ad blocker!