Allgemeines

# Worldcoin: Dystopie wie bei Black Mirror – Ein Kommentar

Seine Iris scannen lassen, um sich als „Mensch verifizieren“ zu lassen und dafür im Gegenzug mit Geld in Form von Kryptowährungen belohnt zu werden. Was wie eine Folge der Serie „Black Mirror“ klingt, ist allerdings keine fiktive Dystopie, sondern die Wirklichkeit, die von einem neuen Krypto-Projekt ausgeht.

Dieses Projekt namens Worldcoin wirft bei vielen Beobachtern nicht zuletzt die Frage auf, ob es mit seinem Vorhaben nicht vielmehr das Versprechen des Web3 bzw. den Grundsatz der Dezentralisierung in das Gegenteil verkehrt. Nichtsdestotrotz haben bereits mehr als 2 Millionen Menschen – allen voran aus benachteiligten Regionen der Welt – freiwillig ihre biometrischen Daten für 25 WLD an Worldcoin verkauft, zum jetzigen Zeitpunkt also für weniger als 100 US-Dollar.

Das ist nicht nur ziemlich befremdlich, sondern bringt auch große Bedenken hinsichtlich des Datenschutzes mit sich und ist zugleich ein regelrechter Honeypot für bösartige Akteure. Darüber hinaus kann sogar das Argument gemacht werden, dass das Projekt in gewisser Weise die Souveränität von anderen Ländern in Frage stellt.

Was will Worldcoin erreichen?

Das perfide daran ist, dass Worldcoin gegründet wurde, um ebenjene Externalitäten aufzuheben, die das erfolgreiche Schwesterunternehmen OpenAI – der Betreiber des populären KI-Chatbots ChatGPT – erst geschaffen hat. Eine Hand schafft also überhaupt erst ein neues Problem, damit es die andere lösen kann.

In den Worten der Gründer klingt das dann so: „Wenn wir Erfolg haben, dann sind wir davon überzeugt, dass Worldcoin bedeutend zur Steigerung der wirtschaftlichen Chancengleichheit beitragen wird, eine verlässliche Quelle für die Unterscheidung zwischen Mensch und KI im Onlineraum unter Berücksichtigung von Datenschutz schaffen wird, globale demokratische Prozesse anstoßen wird und letztendlich sogar die Tür für ein KI-gestütztes universelles Grundeinkommen aufstoßen kann.“

Das Problem mit Worldcoin

Diesen wohlmeinenden Ambitionen und den Versprechungen um einen Fokus auf Datenschutz zum Trotz ergeben sich allein schon aus dem Umstand große Probleme, dass das Projekt von einer einzelnen, zentralisierten Firma gesteuert wird. Eine Problematik, die ironischerweise sogar ChatGPT höchstselbst erkennt, wenn man der KI die Frage stellt: „Was sind die möglichen Risiken, wenn ein einzelnes Unternehmen die biometrischen Daten von Menschen in Entwicklungsländern besitzt?“

Die denkbaren Problemfelder nach Ansicht des Chatbots:

Auch Ethereum-Mitgründer Vitalik Buterin hatte zuletzt ähnliche Bedenken geäußert.

Wenn ein Unternehmen die biometrischen Daten der Menschen in Entwicklungsländern besitzt, dann ergeben sich daraus signifikante Risiken für diese Personen. In der gesamtgesellschaftlichen Betrachtung werden diese allerdings noch weitreichender, wenn damit eine Art Grundeinkommen verbunden wird.

Verstöße gegen den Datenschutz

Biometrische Daten wie Iris-Scans sind hoch sensibel und einzigartig. Entsprechend können daraus konkrete Informationen über Geschlecht, Herkunft und vielleicht sogar Gesundheitszustand einer Person abgeleitet werden. Wenn allein ein Unternehmen diese Daten besitzt, dann ergibt sich daraus ein massives Risiko für Verstöße gegen den Datenschutz, da diese Informationen dazu missbraucht werden können, um Einzelpersonen ohne deren Einwilligung zu überwachen.

Wer garantiert, dass das Unternehmen diese biometrischen Daten nicht für kommerzielle Zwecke nutzen wird, wie personalisierte Werbung oder den Weiterverkauf an Drittunternehmen? Steht das nicht im krassen Widerspruch zu dem, worauf wir die letzten Jahre hingearbeitet haben?

Sicherheitslücken und Datenlecks

Die zentrale Erfassung und Speicherung von biometrischen Daten setzt diese auch einem erhöhten Risiko von Angriffen durch Hacker und Cyberkriminelle aus. In der Sicherheitsbranche werden derartige Datenspeicher als „Honeypot“ bezeichnet, wenn sie den bestimmten Zweck erfüllen, dass damit gezielt Hacker angelockt werden sollen, um mögliche Angriffswinkel und Sicherheitslücken zu verstehen.

Ein Datenleck von dieser Größenordnung würde jedoch schwerwiegende Konsequenzen haben, darunter Identitätsdiebstahl, Betrug und unrechtmäßiger Zugang zu den persönlichen Daten von Millionen Menschen.

Überwachung und Datenhoheit

Zudem könnten die Daten auch per Anordnung in die Hände von Regierungen und Behörden gelangen, ohne dass es einen richterlichen Beschluss für die Einholung persönlicher Informationen braucht. Generell gibt es einfach weniger Hürden und Schutzmechanismen, wenn man seine Daten an ein Unternehmen verkauft. Korrupte Regierungen könnten diese Daten dann missbrauchen, um das Verhalten ihrer Bevölkerungen zu steuern, kritische Meinungen zu unterdrücken, Opposition klein zu halten und Entwicklungsländer effektiv zu Überwachungsstaaten zu machen.

Dazu kommt, dass das Unternehmen, sofern es über Staatsgrenzen hinweg operiert, unvorstellbare Macht und Einfluss auf Regierungen und Gesellschaften nehmen könnte. Wenn es Menschen in Entwicklungsländern tatsächlich mit einem Grundeinkommen versorgen würde, dann könnte dies die Autonomität und Souveränität von Demokratien untergraben.

Wer sich an einem der Orbs von Worldcoin seine Iris scannen lässt, bekommt eine Werbesticker mit der Aufschrift „verifizierter Mensch“. Irgendwie zynisch, dass man als „Mensch“ bezeichnet wird und nicht als „Person“.

Vor dem Hintergrund, dass man für kleines Geld seine Identität an ein Krypto-Projekt verkauft, das in Verbindung mit Künstlicher Intelligenz (KI) steht, klingt das schon fast wie ein Freudscher Versprecher. Als ob das Konzept der persönlichen Identität ein Relikt vergangener Tage ist, und dass wir inzwischen nur noch Menschen im Sinne von Lieferanten für die biometrischen Daten einer massiven Database sind.

Manchmal ist die Realität wirklich verrückter als die wildeste Fantasie.

Matthew Niemerg ist Mitgründer und Vorstandsmitglied der Aleph Zero Foundation. Er hat einen Doktor der Mathematik von der Colorado State University und ist aktuell als Experte im EU Blockchain Observatory and Forum vertreten. Zudem ist Niemerg Mitgründer von Cardinal Cryptography.

Wenn Ihnen der Artikel gefallen hat, vergessen Sie nicht, ihn mit Ihren Freunden zu teilen. Folgen Sie uns auch in Google News, klicken Sie auf den Stern und wählen Sie uns aus Ihren Favoriten aus.

Wenn Sie an Foren interessiert sind, können Sie Forum.BuradaBiliyorum.Com besuchen.

Wenn Sie weitere Nachrichten lesen möchten, können Sie unsere Allgemeines besuchen.

Quelle

Ähnliche Artikel

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Schaltfläche "Zurück zum Anfang"
Schließen

Please allow ads on our site

Please consider supporting us by disabling your ad blocker!