Nachrichten

#ChatGPT-Macher fordert Regulierung von KI-Modellen

Der Chef des ChatGPT-Erfinders OpenAI sieht das Risiko der Verbreitung von Falschinformationen mit Hilfe Künstlicher Intelligenz – und hat sich für eine strikte Regulierung ausgesprochen. Allein schon wegen der benötigten massiven Ressourcen werde es nur wenige Unternehmen geben, die Vorreiter beim Training von KI-Modellen sein können, sagte Sam Altman am Dienstag in einer Anhörung im US-Senat in Washington. Sie müssten unter strenger Aufsicht stehen.

Altmans OpenAI löste mit dem Text-Automaten ChatGPT sowie der Software, die Bilder auf Basis von Text-Beschreibungen erzeugen kann, den aktuellen KI-Hype maßgeblich aus.

ChatGPT formuliert Texte, indem Wort um Wort die wahrscheinliche Fortsetzung eines Satzes eingeschätzt wird. Eine Folge dieses Verfahrens ist aktuell, dass die Software neben korrekten Angaben auch völlig falsche Informationen erfindet – für den Nutzer aber kein Unterschied erkennbar ist. Deswegen gibt es die Befürchtung, dass ihre Fähigkeiten zum Beispiel für die Produktion und Verbreitung von Falschinformationen genutzt werden könnten. Auch Altman äußerte in der Anhörung diese Sorge.

Regierungsbehörde soll KI-Modelle prüfen

Altman schlug die Gründung einer neuen Regierungsbehörde vor, die KI-Modelle auf den Prüfstand stellen kann. Für Künstliche Intelligenz solle eine Reihe von Sicherheits-Tests vorgesehen werden – etwa, ob sie sich eigenständig weiterverbreiten könnten. Unternehmen, die nicht vorgeschriebene Standards einhalten, solle die Lizenz entzogen werden. Die KI-Systeme sollen auch von unabhängigen Experten geprüft werden können.

Altman räumte ein, dass die KI-Technologie in Zukunft einige Jobs durch Automatisierung abschaffen könnte. Zugleich habe sie aber das Potenzial, „viel bessere Arbeitsplätze“ zu schaffen.

Während der Anhörung in einem Senats-Unterausschuss schloss Altmann nicht aus, dass Programme von OpenAI mit der Zeit auch mit Werbung statt wie aktuell im Abo verfügbar sein könnten.

Wenn Ihnen der Artikel gefallen hat, vergessen Sie nicht, ihn mit Ihren Freunden zu teilen. Folgen Sie uns auch in Google News, klicken Sie auf den Stern und wählen Sie uns aus Ihren Favoriten aus.

Wenn Sie an Foren interessiert sind, können Sie Forum.BuradaBiliyorum.Com besuchen.

Wenn Sie weitere Nachrichten lesen möchten, können Sie unsere Nachrichten kategorie besuchen.

Quelle

Ähnliche Artikel

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Schaltfläche "Zurück zum Anfang"
Schließen

Please allow ads on our site

Please consider supporting us by disabling your ad blocker!