Nachrichten

#Die Künstliche Intelligenz und ihr Mordmotiv

Am 22. März 2023 veröffentlichte das gemeinnützige „Future of Life Institute“, eine Denkfabrik mit Sitz in Cambridge, Massachusetts, einen offenen Brief mit dem Titel „Pause Giant AI Experiments: An Open Letter“, der unter anderem von Elon Musk, George Dyson, Steve Wozniak und Yuval Noah Harari unterschrieben war: „Stoppt die gigantischen Experimente mit Künstlicher Intelligenz!“.

Es drohe nicht weniger als der Untergang der Welt, wenn Künstliche Intelligenz ohne Regulierung einfach so weiterentwickelt werde. Deswegen brauche es eine Pause von mindestens sechs Monaten. Ausgelöst wurde der Alarm wohl von ChatGPT, diesem bahnbrechenden Large Language Model, das durch seine Eloquenz, sein Allgemeinwissen und sein Unwissen beeindrucken kann. Jeder, der mit ChatGPT gechattet hat, weiß: Das wird groß, das wird die Welt verändern.

Ist Eloquenz aber gleichbedeutend mit Intelligenz? Man sollte sich vergegenwärtigen, wie ein Large Language Model arbeitet: Ein künstliches neuronales Netz wird trainiert, im Fall von ChatGPT mit sehr viel Text, auch aus dem Internet; welche Texte genau dafür ausgewählt wurden, ist nicht ganz klar.

ChatGPT lernt dann, mit welcher Wahrscheinlichkeit ein Wort auf das andere folgt und gibt auf jede Frage die Wörter entsprechend wieder raus. Wenn ChatGPT also gefragt wird, was Berlin ist, spuckt es aus, dass Berlin die Hauptstadt von Deutschland ist. Nicht weil es eine Vorstellung davon hätte, was Berlin ist, was eine Stadt ist oder wo Deutschland liegt, sondern weil es die statistisch wahrscheinlichste Antwort ist. Würde ich ein neuronales Netz auf Text trainieren, der behauptet, Berlin wäre der Name eines chinesischen Nudelgerichts, würde es mir auf Nachfrage diese Antwort geben.

Das Internet ist jetzt schon voll von Propaganda

Erfahrungsgemäß können auch Menschen, an deren Intelligenz man zweifeln darf, Schaden anrichten. Welche Schäden sind es aber, die Musk und seine Mitunterzeichner im Fall der Künstlichen Intelligenz befürchten? Im offenen Brief werden sie als Fragen formuliert. Die erste, nämlich ob wir die Maschinen unsere Informationskanäle mit Propaganda und Unwahrheit fluten lassen wollen, entbehrt nicht der Komik – immerhin war es Elon Musk, der so gut wie alle Menschen bei Twitter, die sich mit der Moderation beschäftigten, entlassen hat.

Sam Altman: „Wenn mit dieser Technologie etwas schiefgeht, dann kann es ziemlich schiefgehen.“


Sam Altman: „Wenn mit dieser Technologie etwas schiefgeht, dann kann es ziemlich schiefgehen.“
:


Bild: dpa

Darüber hinaus kündigte Musk erst letzte Woche den freiwilligen Verhaltenskodex gegen Desinformation der EU auf, durch den sich Twitter unter anderem verpflichtete, das Verbreiten von Desinformationen über Onlinewerbung zu verhindern. Das Internet ist jetzt schon voll mit Propaganda und Unwahrheit, das Einzige, was sich durch KI verändern könnte ist, dass es damit mehr Propaganda und Unwahrheit geben wird. Das Problem löst man nicht technisch, sondern gesellschaftlich.

Sollen wir, fragt der offene Brief weiter, alle Jobs automatisieren, auch die, die Erfüllung und Befriedigung versprechen? Schon diese Unterscheidung zwischen Jobs, die erfüllen und solchen, die das nicht tun, sollte jedem ein Hinweis sein, welche Jobs auf jeden Fall automatisiert werden sollten. Mit welcher Rechtfertigung sollten Menschen stumpfe Arbeiten für wenig Geld ausführen, wenn es auch eine Maschine tun könnte, die darüber deshalb nicht depressiv wird, weil sie einfach nicht depressiv werden kann?

In der Geschichte des Kapitalismus und der Technologie wurde jede, wirklich jede Technologie früher oder später dazu benutzt, Jobs wegzurationalisieren. Das ging so weit, dass zum Beispiel in der metallverarbeitenden Indus­trie die Facharbeiter ersetzt wurden durch Maschinen, die schlechtere Qualität lieferten, dafür aber keinen Lohn haben wollten und auch nicht streikten. Was uns zeigt, dass nicht die Technologie das Problem ist. Frau Müller hätte mit Sicherheit kein Problem damit, dass ihr Job bei einer Kundenservicehotline zu­künftig von einem Large Language Mo­del gemacht wird, wenn sie nur weiter ihren Lohn erhalten würde. Naturgemäß wird das nicht passieren. Ist das aber die Schuld des Large Language Models?

Wenn Ihnen der Artikel gefallen hat, vergessen Sie nicht, ihn mit Ihren Freunden zu teilen. Folgen Sie uns auch in Google News, klicken Sie auf den Stern und wählen Sie uns aus Ihren Favoriten aus.

Wenn Sie an Foren interessiert sind, können Sie Forum.BuradaBiliyorum.Com besuchen.

Wenn Sie weitere Nachrichten lesen möchten, können Sie unsere Nachrichten kategorie besuchen.

Quelle

Ähnliche Artikel

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Schaltfläche "Zurück zum Anfang"
Schließen

Please allow ads on our site

Please consider supporting us by disabling your ad blocker!