Wissenschaft

#Der subtile Einfluss der KI-Systeme

Dass künstliche Intelligenzen wie ChatGPT, BARD und Co auch Vorurteile und Falschinformationen verbreiten, ist nicht neu. Doch wenig diskutiert wurde bisher, inwieweit diese Outputs die Einstellungen ihrer Nutzer prägen. Zwei Forscherinnen warnen nun vor potenziell tiefgreifenden Folgen dieser subtilen Beeinflussung durch die generativen KI-Systeme. Demnach führt gerade die überzeugende, vermeintlich in sich schlüssige Form der KI-Erzeugnisse dazu, dass Menschen den Inhalten vertrauen. Sind diese Ansichten aber einmal übernommen, bleiben sie hartnäckig in der Psyche verankert und lassen sich schwer wieder korrigieren. Auf lange Sicht könnte dies sogar zu einer fatalen Rückkopplungsschleife führen: Wir übernehmen Fehlinformationen von der KI, verbreiten sie im Netz und darüber landen sie wieder in den Trainingsdaten von neuen generativen Modellen.

KI-Systeme wie ChatGPT, BARD oder auch Midjourney und Stable Diffusion haben eine ganz neue Ära der künstlichen Intelligenz und ihrer Anwendung im Alltag eingeleitet. Denn diese generativen Modelle sind über Web-Interfaces einfach zugänglich und auch für Laien nutzbar. In den letzten Monaten hat sich daher die praktische Anwendung dieser Technologien im beruflichen und privaten Kontext potenziert. Dank der künstlichen Intelligenzen ist es verführerisch leicht, sich Texte oder Bilder erzeugen zu lassen oder eine gut formulierte und auf den ersten Blick überzeugende Antwort auf eine komplexe Frage zu erhalten. Auch wenn inzwischen bekannt ist, dass diese Antworten inhaltlich verzerrt, von Vorurteilen geleitet und sogar schlicht falsch sein können, scheint dies dem Erfolg der KI-Systeme keinen Abbruch zu tun.

Psychologische Mechanismen verstärken den Effekt

Welchen psychologischen Einfluss die Fabrikationen der künstlichen Intelligenzen auf ihre Nutzer und letztlich die Gesellschaft als Ganzes haben kann, beleuchten nun die Psychologin Celeste Kidd von der University of California in Berkeley und die Computerwissenschaftlerin Abeba Birhane vom Trinity College Dublin. „Drei Grundprinzipien der Humanpsychologie können deutlich machen, wo die Gefahren liegen“, sagen sie. Die Erste: Menschen formen stärkere, haltbarere Ansichten, wenn sie die zugrundeliegende Information von Akteuren erhalten, die sie als kenntnisreich und überzeugt einschätzen – dies gilt vor allem für Kinder. Je bestimmter und scheinbar kompetenter jemand auftritt, desto eher schenken wir dem von ihm Gesagten auch Glauben. „Menschen kommunizieren ihre Ungewissheit dabei meist durch Phrasen wie ‚ich glaube‘, durch eine verzögerte Antwort, durch Pausen im Sprachfluss oder auch Korrekturen“, erklären Kidd und Birhane.

Doch generative KI-Systeme zeigen diese sprachlichen Hinweise nicht. „Sie geben überzeugende, flüssige Antworten ohne Hinweise auf Ungewissheiten“, so die Forscherinnen. Dadurch erzeugen sie bei uns den unbewussten Eindruck, sie seien sich ihrer sicher und entsprechend kompetent. Als Folge neigen wir unbewusst dazu, die von der KI erzeugten Inhalte für bare Münze und als verlässlich anzusehen – die in den Antworten oder Bildern versteckten Verzerrungen, Vorurteile oder Fehlinformationen inklusive. Kidd und Birhane illustrieren die Folgen an einem Beispiel aus der US-Rechtsprechung: Dort werden teilweise Algorithmen eingesetzt, um die Rückfallwahrscheinlichkeit von Straftätern einzuschätzen. Diese neigen jedoch aufgrund ihrer Trainingsdaten dazu, Schwarze per se als weniger rehabilitierbar anzusehen. Wenn nun Richter diese KI-Systeme als kompetent ansehen, kann das dazu führen, dass sie diese Einschätzungen mit der Zeit selbst verinnerlichen.

Im Nachhinein schwer zu korrigieren

Als zweiter Faktor kommt hinzu, dass wir Menschen dazu neigen, auch unbelebte Objekte oder Technologien wie die KI-Systeme zu vermenschlichen, indem wir ihnen absichtsvolles und einsichtiges Verhalten zuschreiben. „Diese Neigung, generative Modelle als kenntnisreiche, absichtsvolle Akteure zu sehen, verstärkt die Bereitschaft, ihre Informationen anzunehmen“, erklären Kidd und Birhane. Der dritte Faktor ist die schiere Menge der von KI-Systemen erzeugten Inhalte: „Die Zahl der Kontakte mit falscher oder verzerrter Information bestimmt, wie tief sich diese Ansichten bei uns Menschen einprägen“, schreiben die Forscherinnen. „Der Trend, generative KI-Systeme in immer mehr Technologien und Geräte zu integrieren – von Suchmaschinen bis zu Smartphones – wird den Kontakt mit den Vorurteilen und Fabrikationen der Modelle verstärken.“ Gleichzeitig besteht die Gefahr einer sich selbst verstärkenden Rückkopplungsschleife: Weil die KI-Systeme immer mehr Inhalte generieren, finden ihre Produkte auch zunehmend Eingang in die Trainingsdaten folgender KI-Modelle. „Dies verstärkt die Wirkung systemischer Verzerrungen und setzt sie in die Zukunft hinein fort“, so das Team.

Aus psychologischer Sicht problematisch ist all dies vor allem deshalb, weil einmal etablierte Ansichten nur schwer wieder aus menschlichen Köpfen zu tilgen sind. Den Grund erklären die Forscherinnen so: Eine Information oder Ansicht prägt sich umso tiefer und hartnäckiger ein, je unsicherer und unwissender die Betroffenen zuvor waren. „Dann sind Menschen am offensten dafür, etwas Neues zu lernen“, so Kidd und Birhane. Dies kann auch der Fall sein, wenn wir eine KI etwas fragen. Haben wir dann eine überzeugend klingende Antwort erhalten, sinkt unsere Unsicherheit und damit auch unsere Offenheit für alternative, korrigierende Informationen. „Das kann bedeuten, dass die von einem Sprachmodell erzeugte und von einer unsicheren Person aufgenommene Information hinterher nur schwer wieder aufzuheben ist – selbst, wenn sie falsch war“, erklären die Forscherinnen. Sie plädieren daher dafür, mehr Aufklärung zu leisten und diese Probleme auch bei der Erforschung und Regulierung dieser neuen Technologien zu berücksichtigen.

Quelle: Celeste Kidd (University of California, Berkeley) und Abeba Birhane (Trinity College Dublin), Science, doi: 10.1126/science.adi0248

Wenn Ihnen der Artikel gefallen hat, vergessen Sie nicht, ihn mit Ihren Freunden zu teilen. Folgen Sie uns auch in Google News, klicken Sie auf den Stern und wählen Sie uns aus Ihren Favoriten aus.

Wenn Sie an Foren interessiert sind, können Sie Forum.BuradaBiliyorum.Com besuchen.

Wenn Sie weitere Nachrichten lesen möchten, können Sie unsere Wissenschaft kategorie besuchen.

Quelle

Ähnliche Artikel

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Schaltfläche "Zurück zum Anfang"
Schließen

Please allow ads on our site

Please consider supporting us by disabling your ad blocker!