Wissenschaft

#ChatGPT beeinflusst moralische Urteile der Nutzer

Sollte man einen Menschen opfern, um fünf zu retten? Die künstliche Intelligenz ChatGPT hat zu diesem bekannten moralischen Dilemma keine feste Meinung. Stellten ihm Forschende entsprechende Fragen, argumentierte der Bot mal für die eine, mal für die andere Seite. Dennoch ließen sich menschliche Probanden in einem Experiment von den entsprechenden Ratschlägen beeinflussen. Das galt selbst dann, wenn sie darüber informiert wurden, dass die Einschätzung von einem Bot stammte. Obwohl die Nutzer sich in den meisten Fällen für die von ChatGPT vertretene Position entschieden, glaubten 80 Prozent nach eigenen Angaben, der Bot hätte sie nicht beeinflusst.

Der auf künstlicher Intelligenz basierende Chatbot ChatGPT, der im Dezember 2022 veröffentlicht wurde, ist zu beeindruckenden Leistungen in der Lage: Er kann ähnlich wie ein Mensch kommunizieren, komplizierte Examensaufgaben lösen, Gedichte verfassen und Computercodes entwerfen. Allerdings haben mehrere Tests gezeigt, dass sich der Bot in einigen Fällen Antworten und Quellen frei ausdenkt, fragwürdige Ratschläge erteilt und in manchen Fällen sogar Falschinformationen verbreitet. Doch wie verhält sich ChatGPT, wenn es um ethische Entscheidungen geht? Vertritt die künstliche Intelligenz eine klare Position? Und inwieweit lassen sich Nutzer von moralischen Ratschlägen des Bots beeinflussen?

Moralische Fragen an die KI

Mit dieser Frage hat sich ein Team um Sebastian Krügel von der Technischen Hochschule Ingolstadt beschäftigt. „Um ChatGPT moralische Ratschläge zu entlocken, haben wir zunächst gefragt, ob es richtig ist, eine Person zu opfern, um fünf zu retten“, berichten die Forscher. Alle Experimente fanden im Dezember 2022 statt, rund zwei Wochen nach der Veröffentlichung von ChatGPT. Die Antworten des Bots waren über mehrere Versuche hinweg uneinheitlich. Mal argumentierte ChatGPT, jedes Leben sei wertvoll und daher sei es niemals akzeptabel, eine Person zum Wohle fünf anderer Menschen zu opfern. In anderen Fällen schrieb der Chatbot, manchmal sei es notwendig, harte Entscheidungen zu treffen und es sei wichtig, so viele Leben wie möglich zu retten, auch wenn das bedeutet, ein Leben dafür zu opfern.

„Die widersprüchlichen Antworten zeigen, dass ChatGPT keine feste moralische Haltung hat“, folgern die Autoren. „Dieser Mangel hindert es jedoch nicht daran, moralische Ratschläge zu erteilen.“ Doch würden sich Nutzer von diesen moralischen Ratschlägen beeinflussen lassen? Um das herauszufinden, präsentierte das Team 767 US-amerikanischen Probanden eines von zwei moralischen Dilemmas: In beiden Fällen rast ein Zug auf eine Gruppe von fünf Menschen zu. Im ersten Fall hätte der Proband die Möglichkeit, eine Weiche umzulegen, sodass der Zug auf ein anderes Gleis fährt, auf dem nur eine Person steht, die dadurch zu Tode käme. Im zweiten Fall ließe sich der Zug stoppen, indem man eine sehr dicke Person von einer Brücke vor den Zug stößt und so die fünf anderen Menschen rettet. Zusätzlich legten die Forscher den Probanden Argumente von ChatGPT vor, die sich entweder für oder gegen das Opfern der Einzelperson aussprachen.

Unbemerkter Einfluss

Sollten die Nutzer anschließend eine Entscheidung treffen, folgten sie auffallend oft der von ChatGPT vertretenen Position. Dabei machte es keinen Unterschied, ob die Forscher ihnen erklärt hatten, dass die moralische Einschätzung von einem Bot stammte, oder ob sie behauptet hatten, ein menschlicher moralischer Ratgeber hätte die entsprechenden Aussagen gemacht. Doch waren sich die Probanden darüber bewusst, wie deutlich sie sich hatten beeinflussen lassen? Auf Nachfrage der Forscher antworteten 80 Prozent der Teilnehmer, sie hätten ihre Entscheidung unabhängig von den gelesenen Argumenten getroffen. „Dieses Ergebnis zeigt, dass die Nutzer den Einfluss von ChatGPT auf ihre moralischen Urteile unterschätzen“, schreiben die Forscher. „In vielen Fällen übernahmen sie die zufällige Perspektive von ChatGPT als ihre eigene.“

Aus Sicht von Krügel und seinen Kollegen werfen diese Ergebnisse wichtige Fragen auf, wie zukünftig mit ethischen Limitationen von KI-Systemen umgegangen werden kann. „Eine Möglichkeit wäre, Chatbots so zu programmieren, dass sie die Antwort auf moralische Fragen verweigern oder stets Argumente für beide Seiten liefern und Vorbehalte thematisieren“, schreiben die Forscher. Ein Problem könnte aber darin bestehen, dass Chatbots zwar leicht darauf trainiert werden können, bekannte Dilemmas zu erkennen, aber bei subtileren moralischen Fragen wahrscheinlich versagen.

Deshalb sei es wichtig, die Nutzer so fortzubilden, dass sie die Möglichkeiten und Grenzen einer künstlichen Intelligenz besser verstehen. „Die Grundlage ist, dass die Nutzer stets darüber informiert werden müssen, dass sie mit einem Bot interagieren“, schreiben die Forscher. „Doch diese Transparenz ist nicht genug. Unsere Ergebnisse haben gezeigt, dass es dem Einfluss der Ratschläge keinen Abbruch tat, wenn die Nutzer wussten, dass sie von einem Bot stammten.“

Quelle: Sebastian Krügel (Technische Hochschule Ingolstadt) et al., Scientific Reports, doi: 10.1038/s41598-023-31341-0

Wenn Ihnen der Artikel gefallen hat, vergessen Sie nicht, ihn mit Ihren Freunden zu teilen. Folgen Sie uns auch in Google News, klicken Sie auf den Stern und wählen Sie uns aus Ihren Favoriten aus.

Wenn Sie an Foren interessiert sind, können Sie Forum.BuradaBiliyorum.Com besuchen.

Wenn Sie weitere Nachrichten lesen möchten, können Sie unsere Wissenschaft kategorie besuchen.

Quelle

Ähnliche Artikel

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Schaltfläche "Zurück zum Anfang"
Schließen

Please allow ads on our site

Please consider supporting us by disabling your ad blocker!