Nachrichten

#ChatGPT soll nicht als hochriskant eingestuft werden

Inhaltsverzeichnis

Erfolg und Kritik an der Künstlichen Intelligenz ChatGPT haben die Politik alarmiert. Die italienische Datenschutzbehörde hat den Chatbot Ende März erst einmal sperren lassen. In einem offenen Brief forderten Wissenschaftler und IT-Prominente, das Training sehr leistungsfähiger Modelle auszusetzen. Ein Dutzend wichtige Europaabgeordnete riefen in einem offenen Brief zum Handeln auf.

Mit dem KI-Gesetz der EU-Kommission von 2021 gibt es sogar einen geeigneten Hebel. Wie das EU-Parlament ihn nutzen will, um generative KI-Systeme – also Systeme, die scheinbar kreativ Texte, Bilder, Videos oder auch Computerprogramme produzieren – zu regeln, steht jetzt weitgehend fest.

Unterhändler der verschiedenen Fraktionen haben sich auf einen Grundsatzkompromiss zum KI-Gesetz geeinigt, der nun auch Regeln für generative KI-Systeme umfasst. Zentraler Punkt: Sie werden nicht – wie zunächst erwogen – per se als Hochrisikotechnologie eingestuft. Hochriskante Anwendungen sind nach dem KI-Gesetz an strikte Bedingungen geknüpft. Die Daten, von und mit denen diese KI-Anwendungen lernen, müssen etwa so ausgewählt sein, dass niemand benachteiligt wird. Auch muss stets ein Mensch die letzte Kontrolle haben.

Das für generative Systeme zur Regel zu machen ging den Abgeordneten zu weit. „Verbote oder starke Überregulierung von KIs wie ChatGPT würden nur dazu führen, dass Innovationen außerhalb der EU entstehen“, sagt Svenja Hahn (FDP). „Die Lösung, die wir vereinbart haben, verschafft ChatGPT und anderen Anwendungen Spielraum, sich in der EU zu entwickeln“, betont der für das KI-Gesetz federführend zuständige Abgeordnete Axel Voss (CDU).

Nach dem Kompromiss ist entscheidend für die Auflagen, die generative Systeme erfüllen müssen, wofür sie eingesetzt werden. Für sie gelten somit die gleichen Regeln wie für andere selbstlernende Systeme. Wird ChatGPT etwa in Suchmaschinen eingesetzt, ist es keine Hochrisikoanwendung. Geht es um Versicherungen oder die Auswahl von Bewerbern, indes schon.

Nutzung biometrischer Daten?

Die Einstufung von KI als „hochriskant“ wiederum hängt unter anderem davon ab, ob von einer Anwendung eine direkte oder indirekte Gefahr für das Leben ausgeht, ob sie Menschen diskriminieren kann, aber auch ob eine KI die Rechtsstaatlichkeit oder die Demokratie gefährden kann. Unabhängig davon sieht der Kompromiss eine Reihe von Auflagen für generative Systeme wie ChatGPT vor.

Im neuen Artikel 28b werden ihre Entwickler verpflichtet, die Systeme im Vorfeld ausführlich auf die von ihnen ausgehenden Risiken zu überprüfen und Abhilfemaßnahmen für drohende Gefahren einzubauen. Das hat der ChatGPT-Entwickler Open AI nicht gemacht. Auch müssen die Entwickler sicherstellen, dass die KI-Systeme sicher sind, etwa gegen Cyberangriffe, und dokumentieren, welche Daten sie zum Training nutzen.

Nicht geregelt wird die Frage des Urheberrechts. KI kann nur Texte schreiben und auf andere Weise „künstlerisch“ tätig sein, wenn sie mit Werken von Autoren und Künstlern trainiert wird. Die können aber unter den Urheberrechtsschutz fallen. Artikel 28b sieht dazu nur vor, dass die Erzeuger grob angeben müssen, inwieweit sie geschütztes Material zum Training genutzt haben.

Voss will diese Frage in den anstehenden Verhandlungen mit dem Ministerrat der Staaten noch ansprechen. Der hat sich bisher noch gar nicht damit auseinandergesetzt, ob und wie generative Systeme vom KI-Gesetz reguliert werden sollen. Dazu war der Ministerrat schlicht zu schnell. Er hat seine Position zu dem Gesetz 2022 schon festgelegt, bevor ChatGPT Wellen schlug. In Kraft treten kann das KI-Gesetz erst, wenn sich beide EU-Institutionen auf eine gemeinsame Linie einigen.

Beide Seiten unterstützen dabei grundsätzlich den Kommissionsansatz, nur die riskanten KI-Anwendungen zu kontrollieren. Das soll das Vertrauen in KI stärken und die Nutzung der nicht riskanten Anwendungen erleichtern. Das sind nach Einschätzung der Kommission 90 Prozent.

Streit droht um die Frage, ob die Nutzung biometrischer Daten, die Erkennung von Emotionen und die „Vorhersagende Polizeiarbeit“ (Predictive Policing) untersagt werden sollen. Das Parlament fordert das, dürfte damit jedoch bei den Staaten auf Widerstand stoßen. Zunächst aber muss im Juni das Plenum den Kompromiss annehmen.

Wenn Ihnen der Artikel gefallen hat, vergessen Sie nicht, ihn mit Ihren Freunden zu teilen. Folgen Sie uns auch in Google News, klicken Sie auf den Stern und wählen Sie uns aus Ihren Favoriten aus.

Wenn Sie an Foren interessiert sind, können Sie Forum.BuradaBiliyorum.Com besuchen.

Wenn Sie weitere Nachrichten lesen möchten, können Sie unsere Nachrichten kategorie besuchen.

Quelle

Ähnliche Artikel

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Schaltfläche "Zurück zum Anfang"
Schließen

Please allow ads on our site

Please consider supporting us by disabling your ad blocker!