Technologie

#Apples neues System soll iCloud-Fotos auf Kindesmissbrauch untersuchen

Apples neues System soll iCloud-Fotos auf Kindesmissbrauch untersuchen

Schon vor der offiziellen Ankündigung war Apples System zur Erkennung von Kindesmissbrauch unter Beschuss, da es die Privatsphäre der iPhone-Nutzer beeinträchtigen kann. Die neue Software soll ab Herbst Bestandteil der neuen Betriebssysteme sein beziehungsweise zunächst nur in den USA starten.

Apple-Logo bei Nacht
Das Logo des US-Unternehmens AppleBildquelle: Pexels/Pixabay

Bereits im Vorfeld von Apples offizieller Ankündigung der neuen Funktionen gab es unter anderem bei Twitter Kritik zu den Plänen. Die neuen Features sollen einerseits Kinder bei der Nutzung von Apples Nachrichten-App schützen. Ein weiterer Aspekt der Ankündigung ist die Erkennung von Bildern durch Apple, auf denen Kindesmissbrauch zu erkennen ist.

Der dritte Bestandteil ist die Erweiterung von Siri und der Suchfunktionen in Apples Betriebssystemen ab iOS 15, iPadOS 15 und macOS Monterey. Diese Neuerungen sollen Kindern und Eltern Ressourcen für den Umgang in unsicheren Situationen bieten.

Insbesondere die Erkennung des sogenannten „Child Sexual Abuse Material“, kurz CSAM, sorgte im Vorfeld für Kritik. Als Grund nennt man Befürchtungen, dass Apple in Zukunft nicht nur Kinderpornografie, sondern auch andere Inhalte filtern und melden könnte.

Apples neuer Schutz für Nachrichten-App

Die erste Ankündigung von Apple betrifft die Nachrichten-App. Empfängt ein Kind eine Nachricht mit einem Foto, auf dem sexuelle Inhalte zu sehen sind, wird dies vom Betriebssystem auf dem Gerät erkannt. Die Nachrichten-App zeigt das Foto daraufhin nur verschwommen an und das Kind erhält einen Warnhinweis mit weitergehenden Informationen. Des Weiteren kann auch ein Hinweis angezeigt werden, der das Kind darüber informiert, dass die Eltern eine Nachricht bekommen, wenn das Bild dennoch angezeigt werden soll.

Ähnliche Hinweise sollen erscheinen, wenn ein Kind ein entsprechendes Foto verschicken will. „Das Kind wird gewarnt, bevor das Foto gesendet wird, und die Eltern können eine Nachricht erhalten, wenn das Kind sich entscheidet, es zu senden“, so Apple. Diese Benachrichtigung ist nur dann möglich, wenn das Kind jünger als 13 Jahre alt ist. Im Alter von 13 bis 17 Jahren sieht das Kind nur das verschwommene Bild und den dazugehörigen Hinweis.

Die Nachrichten-App nutzt das maschinelle Lernen auf dem Gerät des Anwenders, um die Bilder zu analysieren und sexuelle Inhalte zu erkennen. Apple hat keinen Zugriff auf die Nachrichten. Das Feature wird in den USA mit iOS 15, iPadOS 15 und macOS Monterey für Familien mit iCloud verfügbar sein.

Apples neue Warnungen und Hinweise in der Nachrichten-App
Apples neue Warnungen und Hinweise in der Nachrichten-App

Apple will Bilder vor dem Hochladen in iCloud prüfen

Noch bevor Apple die offizielle Ankündigung veröffentlicht hatte, machte Sicherheitsexperte Matthew Green bei Twitter auf die potenziellen Gefahren des zweiten Aspekts aufmerksam. Diese neue Technologie von iOS und iPadOS soll es „Apple ermöglichen, bekannte CSAM-Bilder erkennen, die in iCloud-Fotos gespeichert sind“. Werden derartige Inhalte erkannt, kann Apple diese Fälle beim National Center for Missing and Exploited Children (NCMEC) melden. Das NCMEC arbeitet dann mit den US-Polizeibehörden zusammen. Dieses System wird zunächst ebenfalls nur in den USA aktiv sein.

Laut Apple wurde die Erkennung so konzipiert, um die Privatsphäre der Nutzer zu schützen. Das System durchsucht beispielsweise keine Bilder, die bereits in der Cloud gespeichert sind. Stattdessen werden Bilder beim Upload von iPhone oder iPad in iCloud-Fotos analysiert.

Dazu erstellt das System einen Hash, ein „Fingerabdruck“, von jedem Foto. Diese vergleicht Apple dann vor dem Upload mit bereits bekannten Hashes von Fotos, auf denen Kindesmissbrauch zu sehen ist. Das System analysiert also nicht etwa die Inhalte der eigenen Bilder. Es erzeugt lediglich einen Fingerabdruck und vergleicht diesen mit dem von bereits bekannten Fotos. Dieser sogenannte NeuralHash soll laut TechCrunch auch dann mit dem bekannten Inhalt identisch sein, wenn jemand ein Bild beispielsweise „beschnitten oder bearbeitet“ hat. Apple gibt an, dass es nur eine billionste Chance für ein Falsch-Positiv-Ergebnis gibt.

Hat das System eine Übereinstimmung festgestellt, erstellt das Gerät einen Beleg, den sogenannten „cryptographic safety voucher“; diesen speichert Apple mit dem Foto in der iCloud. Wurde eine bestimmte und nicht bekannte Menge derartiger Belege festgestellt, greift Apple manuell ein und stellt sicher, dass es sich wirklich um Übereinstimmungen handelt. Ist dies der Fall, deaktiviert Apple den iCloud-Account und informiert das NCMEC.

Kritik am neuen System

Kritiker befürchten, dass Apple das neue System in Zukunft auch zur Meldung von anderen Inhalten nutzen könnte. Denkbar wären etwa politische Inhalte, die auf Fotos von Nutzern zu sehen sind. Damit könnten zum Beispiel Polizeibehörden einen deutlich ausgeweiteten Zugriff auf die privaten Informationen von Anwendern erhalten.

Die Electronic Frontier Foundation, EFF, bezeichnet die neuen Funktionen beispielsweise als „Hintertür in dein Privatleben“. Egal, wie eng die Limitierungen zunächst gesetzt sind, in diesem Beispiel nur Fotos von CSAM-Inhalten, in Zukunft könnten beispielsweise Regierungen diese Beschränkungen aufweichen und das System für andere Zwecke missbrauchen.

Um das System zu deaktivieren, können Anwender laut MacRumors die iCloud-Foto-Bibliothek auf ihren Geräten abschalten.

Scannen von Cloud-Inhalten hinter den Kulissen

Im Hintergrund nutzen Anbieter wie Apple, Microsoft, Google, Facebook oder auch Twitter bereits seit vielen Jahren ähnliche Techniken, um Fälle von Kindesmissbrauch zu erkennen. PhotoDNA kommt beispielsweise bei Twitter seit 2013 zum Einsatz, wie ein Bericht von Charles Arthur von The Guardian zeigt. Das System nutzt ebenfalls unter anderem die Datenbank des NCMEC. Microsoft entwickelte PhotoDNA im Jahr 2000 in Kooperation mit dem Dartmouth College in den USA. Facebook nutzt die Technik seit 2011.

Ein weiterer Bericht aus dem vergangenen Jahr offenbarte, wie Apple die Technik für den eigenen Mail-Dienst nutzt. Hier hat das System den Versand von Nachrichten mit bekannten Bildern erkannt. Die betroffenen Inhalte haben Apples Mitarbeiter daraufhin ebenfalls manuell analysiert und dann bei den Behörden gemeldet.

Informationen zum Umgang mit Kindesmissbrauch: Apple erweitert Siri

Eine weitere Neuerung ist die Erweiterung von Apples Siri und der Suche. So nennt der Sprachassistent beispielsweise Informationen, wenn ein Anwender fragt, wie er Inhalte mit Kindesmissbrauch melden kann. Diese Erweiterung soll in den USA ebenfalls Bestandteil von iOS 15, iPadOS 15, watchOS 8 und macOS Monterey sein.

Apple will auch Siri und die Suche in iOS 15 erweitern
Apple will auch Siri und die Suche in iOS 15 erweitern

Bildquellen

  • Apples neue Warnungen und Hinweise in der Nachrichten-App: Apple
  • Apple will auch Siri und die Suche in iOS 15 erweitern: Apple
  • Apple-Logo bei Nacht: Pexels/Pixabay

Wenn Ihnen der Artikel gefallen hat, vergessen Sie nicht, ihn mit Ihren Freunden zu teilen. Folgen Sie uns auch in Google News, klicken Sie auf den Stern und wählen Sie uns aus Ihren Favoriten aus.

Wenn Sie an Foren interessiert sind, können Sie Forum.BuradaBiliyorum.Com besuchen.

Wenn Sie weitere Nachrichten lesen möchten, können Sie unsere Technologie kategorie besuchen.

Quelle

Ähnliche Artikel

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Schaltfläche "Zurück zum Anfang"
Schließen

Please allow ads on our site

Please consider supporting us by disabling your ad blocker!