Wissenschaft

#KI-generierte Medien: Täuschend echt

Künstliche Intelligenz kann fotorealistische Bilder generieren, Nachrichtentexte schreiben und menschliche Sprache nachahmen – und zwar so gut, dass die künstlich erzeugten Medien oft nicht mehr von menschlichen Werken zu unterscheiden sind. Anhand von Online-Befragungen in Deutschland, China und den USA zeigt eine Studie, dass Menschen meist nur noch raten können, welche Texte, Bilder und Audios echt und welche künstlich generiert sind. Selbst eine hohe Medienkompetenz hilft nur noch wenig.

Ende November 2022 wurde der Chatbot ChatGPT veröffentlicht, der generative künstliche Intelligenz für die breite Bevölkerung verfügbar machte und viele Diskussionen über den Umgang mit KI angestoßen hat. Wie wirken sich die künstlich erzeugten Inhalte auf unser Verständnis von Wahrheit und Authentizität aus? Was bedeutet das für unsere Gesellschaft? Und vor allem: Wie können wir echte, menschengemachte Inhalte von KI-generierten unterscheiden?

Mensch oder KI?

Mit dieser Frage hat sich ein Team um Joel Frank von der Ruhr-Universität Bochum schon im Sommer 2022 beschäftigt, noch vor der Veröffentlichung von ChatGPT. In einer großen Online-Umfrage baten die Forschenden zwischen Juni und September 2022 rund 3.000 Menschen aus Deutschland, China und den USA, für Texte, Bilder und Sprachaufnahmen jeweils einzuordnen, ob sie von einem Menschen oder einer künstlichen Intelligenz erstellt wurden. Die Ergebnisse haben die Forschenden nun auf dem Preprint-Server ArXiv veröffentlicht und zudem auf einer Fachkonferenz in San Francisco präsentiert.

Im Experiment war jeweils die eine Hälfte der präsentierten Inhalte menschengemacht, die andere Hälfte KI-generiert. In Deutschland dienten Nachrichtentexte der Tagesschau als von Menschen verfasste Textbeispiele. Die KI-Beispiele erstellte das Team mit dem ChatGPT-Vorgänger GPT3 von OpenAI. Als Bilder dienten echte Personenfotos sowie fotorealistische Portraits, die mit dem Bildgenerator StyleGAN von Nvidia erzeugt worden waren. Für die Sprachaufnahmen nutzten die Forschenden Literaturauszüge, die entweder von einem Menschen oder von einem Text-zu-Sprache-Generator vorgelesen wurden.

Testpersonen können nur raten

Das Ergebnis: „Über alle Medientypen und Länder hinweg stellen wir fest, dass künstlich erzeugte Beispiele fast nicht von ‚echten‘ Medien zu unterscheiden sind“, berichtet das Team. „Die Teilnehmenden bewerteten künstlich erzeugte Medien überwiegend als von Menschen erstellt. Bei Bildern schnitten sie sogar schlechter ab als beim zufälligen Raten.“ So hielten die deutschen Testpersonen fast 79 Prozent der KI-generierte Bilder für echte Fotos, aber ordneten nur knapp 71 Prozent der tatsächlich von Menschen aufgenommenen Fotos als echt ein. Eine ähnliche Tendenz zeigte sich auch in den USA. Chinesische Testpersonen ordneten KI-generierte Texte, Fotos und Audios häufiger korrekt ein, hielten dafür aber auch fast die Hälfte der echten Beispiele für KI-generiert. Das deutet darauf hin, dass auch sie überwiegend rieten, nur dabei misstrauischer waren.

Als mögliche Einflussfaktoren erhoben Frank und sein Team zudem sozio-biografische Daten, das Wissen zu KI-generierten Medien sowie Faktoren wie Medienkompetenz, holistisches Denken, generelles Vertrauen, kognitive Reflexion und politische Orientierung. Doch auch wenn jüngere Menschen und solche, die sich besser mit KI-generierten Medien auskannten, geringfügig besser abschnitten, bewegten sich auch ihre Ergebnisse weitgehend im Bereich des Ratens. „Selbst über verschiedene Altersgruppen hinweg und bei Faktoren wie Bildungshintergrund, politischer Einstellung oder Medienkompetenz, sind die Unterschiede nicht sehr signifikant“, berichtet Co-Autor Thorsten Holz vom CISPA Helmholtz-Zentrum für Informationssicherheit in Saarbrücken.

Herausforderung für die Politik

Aus Sicht der Forschenden geben die Ergebnisse Anlass zur Besorgnis – zumal sich die Technologie seit Durchführung der Umfrage bereits weiterentwickelt hat und die erzeugten Inhalte inzwischen meist noch echter wirken. „Künstlich erzeugter Content kann vielfältig missbraucht werden“, gibt Holz zu bedenken. „Wir haben in diesem Jahr wichtige Wahlen, wie die Wahlen zum EU-Parlament oder die Präsidentschaftswahl in den USA: Da können KI-generierte Medien sehr einfach für politische Meinungsmache genutzt werden. Ich sehe darin eine große Gefahr für unsere Demokratie“.

Auch maschinelle Erkennung KI-generierte Inhalte ist den Forschenden zufolge keine Lösung. „Das ist ein Wettlauf mit der Zeit“, sagt Holz Kollegin Lea Schönherr. „Medien, die mit neu entwickelten Methoden zur Generierung mit KI erstellt sind, lassen sich immer schwieriger mit automatischen Methoden erkennen.“ Das Forschungsteam sieht die Verantwortung deshalb bei der Politik: „Nur eine sorgfältige Gesetzgebung, die die menschliche Wahrnehmung und menschliche Werte berücksichtigt, kann die schädlichen Auswirkungen der künstlich erzeugten Medien abmildern, ohne ihre positiven Auswirkungen zu behindern“, so das Team.

Quelle: Joel Frank (Ruhr-Universität Bochum) et al., ArXiv, doi: 10.48550/arXiv.2312.05976

Wenn Ihnen der Artikel gefallen hat, vergessen Sie nicht, ihn mit Ihren Freunden zu teilen. Folgen Sie uns auch in Google News, klicken Sie auf den Stern und wählen Sie uns aus Ihren Favoriten aus.

Wenn Sie weitere Nachrichten lesen möchten, können Sie unsere Wissenschaft kategorie besuchen.

Quelle

Ähnliche Artikel

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Schaltfläche "Zurück zum Anfang"
Schließen

Please allow ads on our site

Please consider supporting us by disabling your ad blocker!