Spiel

#Deutsche Wissenschaftler wollen KI-Bilder von ihren Vorurteilen befreien

Fair Diffusion soll für weniger Vorurteile in KI-Bildern sorgen. Wie das von deutschen Wissenschaftlern entwickelte Werkzeug Stereotypen den Kampf ansagt.

Mit Bild-KIs sind und Illustrationen nur einen Klick entfernt – selbst dann, wenn das eigene künstlerische Talent überschaubar ausfällt. Tools wie Dall-E und Stable Diffusion bieten damit die Chance, visuelle Inhalte wie nie zuvor zu demokratisieren.

Doch was auf den ersten Blick so fair klingt, bringt eine Reihe von ethischen Problemen mit sich. Da ist etwa die viel diskutierte Frage, woher Bild-KIs ihr Trainings-Material erhalten dürfen und wie dahinterstehende Künstler fair entlohnt werden.

Ein weiteres Problem fliegt in der Öffentlichkeit hingegen eher unter dem Radar: Die KI-Bilder sind nicht frei von Vorurteilen. Wissenschaftler der Technischen Universität Darmstadt wollen das ändern.

Bild-KIs sind nicht frei von Vorurteilen

In die Trainingsdaten von Dall-E und Co. eingebacken sind unsere ganz eigenen Klischees. So berichtete etwa Technology Review über die Bild-KI Dall-E 2. Diese stellte CEOs in ihren Bildern nahezu ausnahmslos weiß und männlich dar. Gefängnisinsassen waren laut Wired hingegen überdurchschnittlich häufig Schwarz. Und bat man die KI um Bilder von Frauen, wurden die häufig sexualisiert und knapp bekleidet dargestellt.

Auch mit Parkplätzen scheint KI noch so ihre Probleme zu haben, wie ihr in Linhs Artikel nachlesen könnt:

Mehr zum Thema

Zwar arbeiten die KI-Unternehmen daran, diese Probleme aus der Welt zu schaffen. Gänzlich wird sich das Trainings-Material aber nicht von Vorurteilen befreien lassen – zumindest, solange wir Menschen nicht über unsere Klischees erhaben sind.

Hier setzen die Darmstädter Wissenschaftler rund um KI-Forscher Felix Friedrich an. Sie haben das KI-Tool Fair Diffusion entwickelt, mit dem sich Bilder per KI diverser gestalten lassen können.

Fair Diffusion sagt Stereotypen den Kampf an

Fair Diffusion soll vor allem bei der Erstellung von Text-zu-Bild-Inhalten zum Einsatz kommen – also KI-Tools, die aus Texteingaben Bilder erstellen.

Während der Erstellung der Bilder wird Fair Diffusion dabei zwischengeschaltet und sorgt für weniger Bias, wenn im Bild eine Person dargestellt wird.

Abseits der dargestellten Person soll das Bild dabei größtenteils unberührt bleiben und genauso aussehen, wie es die Bild-KI ohne Fair Diffusion erstellt hätte.

Bei den Personen im Bild soll Fair Diffusion hingegen für eine fairere Verteilung bezüglich Kategorien wie Hautfarbe oder Geschlecht sorgen, also etwa für mehr männliche Erzieher oder mehr weibliche Doktoren.

Fair Diffusion lässt KI-Bilder bis auf die dargestellte Person unangetastet. (Bildquelle: Felix Friedrich)





Fair Diffusion lässt KI-Bilder bis auf die dargestellte Person unangetastet. (Bildquelle: Felix Friedrich)


Dafür nutzt Fair Diffusion einen eigenen Datensatz, der aus mehr als 1,8 Millionen Bildern besteht und Personen in mehr als 150 verschiedenen Berufen darstellt.

Allerdings geben die Forschenden auch zu bedenken, dass es sich bei Fair Diffusion um kein völlig faires Tool handelt. Zwar könne man mit dem Tool spezifische Vorurteile innerhalb der Bilderstellung verringern. Eine KI, die auf einen Schlag alle Klischees aus der Welt räumt, sei es jedoch nicht.

Auch sei der von Fair Diffusion verwendete Datensatz selbst nicht ganz frei von Vorurteilen und Einschränkungen und stellt zum aktuellen Zeitpunkt etwa nur Personen mit binären Geschlechtsidentitäten dar.

Allen Einschränkungen zum Trotz könnten Werkzeuge wie Fair Diffusion künftig dafür sorgen, dass KI-Bilder fairer werden, anstatt wie bisher Stereotypen und Vorurteile wiederzugeben und sogar noch zu verstärken.

BELIEBT BEI GAMESTAR TECH

Was meint ihr? Verfolgt Fair Diffusion den richtigen Ansatz, um künftig für fairere KI-Bilder zu sorgen? Sollten Tools wie dieses vielleicht künftig sogar von Haus aus in Bild-KIs eingebaut werden? Oder sind Unterfangen wie dieses nur ein Tropfen auf den heißen Stein, solange wir selbst unsere Vorurteile und Klischees nicht loswerden? Schreibt uns eure Meinung gerne in die Kommentare!

Wenn Ihnen der Artikel gefallen hat, vergessen Sie nicht, ihn mit Ihren Freunden zu teilen. Folgen Sie uns auch in Google News, klicken Sie auf den Stern und wählen Sie uns aus Ihren Favoriten aus.

Wenn Sie an Foren interessiert sind, können Sie Forum.BuradaBiliyorum.Com besuchen.

Wenn Sie weitere Nachrichten lesen möchten, können Sie unsere Spiel kategorie besuchen.

Quelle

Ähnliche Artikel

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Schaltfläche "Zurück zum Anfang"
Schließen

Please allow ads on our site

Please consider supporting us by disabling your ad blocker!