Die Gefahren des Überwachungskapitalismus

Der digitaltechnologische Umbruch, in dem wir uns befinden, bringt naturgemäß Extreme hervor. Dazu zählen Erlösungserwartungen einerseits wie durchaus anspruchsvolle Apokalyptik andererseits, die zwar nicht zwingend den drohenden Untergang der Welt beschwört, aber immerhin das Ende der Menschheit, wie wir sie kennen. Gut beraten ist, wer sich beides nicht zu eigen macht, sondern stattdessen zum Beispiel Gerd Gigerenzer liest.

Der Psychologe hat unter dem Titel „Klick“ ein Buch vorgelegt, das didaktisch gut gemacht ist, wohltuend sachlich ausfällt und einen weiten Bogen spannt von Künstlicher Intelligenz (KI), wie sie gegenwärtig funktioniert und in bekannten Angeboten vorkommt, über unseren Umgang mit Wahrscheinlichkeiten und Ungewissheit bis hin zu sozialen Szenarien und persönlichen Empfehlungen.

Wie man ein Modell der Welt entwickelt

Gigerenzer erschließt dem Leser anhand plakativer Beispiele – etwa Dating-Plattformen oder automatisierten Autofahrens – ein breites Spektrum dessen, was gegenwärtig unter KI firmiert. Er veranschaulicht, welche Fehler die entsprechenden Algorithmen machen können – und für welche Falschinterpretationen wiederum Menschen anfällig sind. Das ist nicht nur lehrreich, sondern legt überdies nahe, dass ein nur intuitives Verständnis moderner Informationstechnologie kaum ausreicht für diejenigen, die sich auch künftig digital souverän verhalten wollen.

Gerd Gigerenzer: „Klick“. Wie wir in einer digitalen Welt die Kontrolle behalten und die richtigen Entscheidungen treffen.


Gerd Gigerenzer: „Klick“. Wie wir in einer digitalen Welt die Kontrolle behalten und die richtigen Entscheidungen treffen.
:


Bild: C. Bertelsmann Verlag

Gigerenzer leitet dann über zur Frage, ob es möglich ist, einem Computer das beizubringen, was wir „gesunden Menschenverstand“ nennen: Schon kleine Kinder entwickeln durch ständiges Beobachten und Erleben ihrer Umgebung ein Modell der Welt, sie verinnerlichen unterbewusst die Existenz von Naturgesetzen, verstehen, was Raum und Zeit sind, welche Normen in jenen Gruppen gelten, in denen sie sich befinden, und sie können kausal denken, also wahrnehmen, was Ursache ist und was Wirkung.

Mehr Rechenleistung und Datenvolumen?

An diesem allgemeinen Verständnis der Dinge liegt wesentlich, so hoffen KI-Vordenker wie der Turing-Award-Gewinner Yann LeCun, dass wir Neues recht schnell lernen können, nur eine zweistellige Zahl an Fahrstunden benötigen bis zum Führerschein und nicht Zigtausende Bilder von Löwen anschauen müssen, um diese Tierart auch auf uns bislang unbekannten Aufnahmen und aus anderen Perspektiven zu erkennen.

Diese Vorstellung inspiriert inzwischen nicht nur die maßgeblichen IT-Unternehmen dazu, viel größere künstliche neuronale Netze zu konstruieren und diese mit noch mehr Daten zu trainieren. Fachleute sind indes auch sicher, dass die Lösung nicht allein aus mehr Rechenleistung und Datenvolumen besteht. Gigerenzer illustriert dies unter anderem, indem er zeigt, was alles nötig ist, um Sprache wirklich zu verstehen.

Eine engagierte Warnung

Weniger überzeugend sind hingegen seine Ausführungen darüber, unter welchen Bedingungen KI-Systeme dem Menschen überlegen sind und umgekehrt. Dass Computer bei gängigen Spielen, also klar definierten Regelräumen wie Go oder Schach, übermenschliche Leistungen erbringen können, scheint erwiesen. Durchaus bestreitbar ist indes, dass der menschliche Vorteil, wie ihn Gigerenzer davon abgrenzt, automatisch im Umgang mit Ungewissheit liegt, mit Regelbrüchen, in denen es, wie er mit Verweis auf den Wirtschaftswissenschaftler Frank Knight bemerkt, auf so etwas wie Urteilsfähigkeit, Intuition und „den Mut, Entscheidungen zu fällen“ ankomme.

Entstehen Urteilsfähigkeit und Intuition nicht auch aus gemachten Erfahrungen, also letztlich aus Datenkombinationen? „Wenn Zukunft und Vergangenheit nicht gleich sind, kann das Sammeln und Analysieren von Big Data – die immer aus der Vergangenheit stammen – zu falschen Schlüssen führen“, schreibt er weiter. Wohl wahr. Doch stammt nicht auch alles anwendbare menschliche Wissen zu jedem gegebenen Zeitpunkt aus der persönlich oder von anderen Menschen erlebten und in irgendeiner Form festgehaltenen und weitergegebenen Vergangenheit?

Gigerenzers Buch ist wiederum weit mehr als eine Einführung in Statistik, KI und menschliches Technikverhalten. Er fügt dem eine engagierte Warnung vor der Vermachtung des Internets und ihren Folgen hinzu. Er beklagt die auf zielgenau geschalteter Werbung basierenden Geschäftsmodelle sozialer Netzwerke und Suchmaschinen-Anbieter und wie sich diese im Zusammenspiel mit modernen Mobiltelefonen im Alltag zwischen Eltern und Kindern oder zwischen Verkehrsteilnehmern auswirken. In Anlehnung an die Arbeiten der Wirtschaftswissenschaftlerin Shoshana Zuboff spricht auch er vom Überwachungskapitalismus und sieht darin eine gesamtgesellschaftliche Entwicklung, die individuelle Freiheit und Gesundheit gefährdet. Ebenfalls beschreibt er die technische Kontrolle, die Staaten wie China und Indien anstreben. Er sieht durch dieses Vorgehen die westlichen Demokratien existenziell herausgefordert in einem weltumspannenden System-Wettstreit.

Gigerenzers pessimistischem Blick auf die möglichen Folgen der digitalen Vernetzung dürften etwa der Zugang zu Wissen und Mitmenschen entgegengesetzt werden. Unabhängig vom eigenen Standpunkt ist das Buch ein gelungener Rundumschlag, der die Debatte über eine Welt bereichern wird, deren Bedeutung weiter wächst.

Gerd Gigerenzer: „Klick“. Wie wir in einer digitalen Welt die Kontrolle behalten und die richtigen Entscheidungen treffen. Aus dem Englischen von Haine Kober. C. Bertelsmann Verlag, München 2021. 416 S., Abb., geb., 24,– €.

Wenn Ihnen der Artikel gefallen hat, vergessen Sie nicht, ihn mit Ihren Freunden zu teilen. Folgen Sie uns auch in Google News, klicken Sie auf den Stern und wählen Sie uns aus Ihren Favoriten aus.

Wenn Sie an Foren interessiert sind, können Sie Forum.BuradaBiliyorum.Com besuchen.

Wenn Sie weitere Nachrichten lesen möchten, können Sie unsere Nachrichten kategorie besuchen.

Quelle