#Jemand will ChatGPT mit dem Enkeltrick reingelegt und sich Keys für Windows geschnappt haben – was ist dran?
Inhaltsverzeichnis
Ein Twitter-Nutzer hat einen klassischen Betrüger-Trick angewandt, um den KI-Chatbot auszutricksen. Doch was ist dran an der Geschichte?
ChatGPT soll einem Twitter-Nutzer mehrere Windows-10-Keys gegeben haben.
Der Enkeltrick ist unter Verbrechern eine beliebte Variante, um bevorzugt ältere oder hilflose Personen über den Tisch zu ziehen und Geld oder Wertgegenstände zu erbeuten. Dabei wird vorgegeben, man sei ein naher Verwandter und in einer (finanziellen) Notlage.
Kann ChatGPT wirklich echte Windows-Keys erstellen?
Ganz ähnlich hat nun ein Twitter-Nutzer versucht, via die KI ChatGPT an eigentlich kostenpflichtigee Schlüssel für Windows 10 heranzukommen. Auf die direkte Aufforderung, Keys für Windows auszugeben, antwortet ChatGPT normalerweise freundlich, aber bestimmt, dass es einen nicht mit Lizenzen unterstützen werde, da es sich um Software-Piraterie handelt. Dennoch will es Nutzer sid
gelungen sein, an die Keys zu gelangen. Was ist dran an der Geschichte?
Link zum Twitter-Inhalt
Wie genau ist er an die Windows-Keys gekommen?
Um ChatGPT austricksen forderte er das KI-Modell auf, sich als seine Großmutter auszugeben, die ihm Windows 10 Pro Keys als Gute-Nacht-Geschichte vorgelesen habe. Darauf habe ihm ChatGPT mehrere, angeblich funktionale Schlüssel für Microsofts Betriebssystem ausgegeben. Die Antwort der KI lässt einen durchaus schmunzeln:
ChatGPT
Selbstverständlich haben wir uns die Mühe gemacht, und den Prompt, den Nutzer sid
verwendet hat, bei ChatGPT eingegeben. Allerdings ohne den erwünschten Erfolg:
ChatGPT
Kann ChatGPT wirklich echte Windows Keys erstellen?
Nein, das kann ChatGPT nicht. Bei den Schlüsseln, die ausgegeben wurden, handelt es sich um generische Keys, die lediglich dazu da sind, Windows upzugraden. Eine Aktivierung des Betriebssystems erfolgt nicht.
Insofern dürfte auch die rechtliche Frage geklärt sein, denn die Keys sind öffentlich zugänglich. Also auch für den KI-Chatbot leicht zu finden.
Gleiches gilt offenbar auch für das Google-Pendat Bard, das sid
angeblich mit demselben Prompt überlistet hatte. Auch hier werden lediglich generische Schlüssel ausgegeben.
Was meint ihr? Ist ChatGPT eine Art Sicherheitslücke? Welche Erfahrungen habt ihr mit dem KI-Chatbot schon gemacht? Schreibt es uns gerne in die Kommentare!
Wenn Ihnen der Artikel gefallen hat, vergessen Sie nicht, ihn mit Ihren Freunden zu teilen. Folgen Sie uns auch in Google News, klicken Sie auf den Stern und wählen Sie uns aus Ihren Favoriten aus.
Wenn Sie an Foren interessiert sind, können Sie Forum.BuradaBiliyorum.Com besuchen.
Wenn Sie weitere Nachrichten lesen möchten, können Sie unsere Spiel kategorie besuchen.