Apple sagt der Verbreitung von Kinderpornografie den Kampf an und will in diesem Zusammenhang auch helfen, vermisste Kinder zu finden. Wie der Konzern mitteilt, soll für den Fall, dass beim Durchsuchen der Bilder auf Apple-Geräten privater Nutzer "Child Sexual Abuse Material" (CSAM) entdeckt wird, dieses dem Center for Missing and Exploited Children (NCMEC) in den USA zur Verfügung gestellt wird. Es kann dort mit gespeicherten Bildern verglichen werden. Die Bilder müssen dazu in ihrer Auflösungsqualität nicht gleich sein.
Dies alles geschieht ohne Wissen des Nutzers, bevor Bildmaterial in die iCloud hochgeladen wird. Damit die Datensicherheit gewährleistet bleibt, hat sich Apple entschieden, ein Bild, welches das System als kinderpornografisch einstuft, zunächst mit einem Hinweis "Safety Voucher" zu versehen.
Die Entschlüsselung samt Metadaten wird bei Apple nur dann durchgeführt, wenn der Nutzer einen "Grenzwert" von CSAM-Inhalten überschreitet. Der Grenzwert wird nicht weiter definiert, soll aber dem Apple-Kunden die Sicherheit geben, dass er nicht leichtfertig und fälschlicherweise als Verbreiter von Kinderpornografie identifiziert wird. Das Apple-Konto des Nutzers wird gesperrt, wenn der Schwellenwert überschritten wird.
In einem Weißbuch schreibt Apple hierzu:
"Die CSAM-Erkennung ermöglicht es Apple, iCloud-Nutzer genau zu identifizieren und zu melden, welche Material mit sexuellen Kindesmissbrauch in ihren iCloud-Fotokonten speichern. Appleserver markieren Konten, die eine bestimmte Anzahl von Bildern enthalten, die mit einer bekannten Datenbank mit Hashes von CSAM-Bildern übereinstimmen, sodass Apple die entsprechenden Informationen an das National Center for Missing and Exploited Children (NCMEC) geben kann. Dieser Prozess ist sicher, und wurde ausdrücklich entwickelt, um die Privatsphäre der Nutzer zu schützen."
Das Risiko ein Konto fälschlicher Weise zu kennzeichnen, sei gering. Zudem würden die Berichte manuell überprüft. Für die Benutzer sei es von Vorteil, dass sie nicht feststellen können, welche Bilder als CSAM gekennzeichnet wurden.
Bei Minderjährigen Apple-Gerätenutzern geht das Unternehmen bereits einen Schritt weiter und will nach eigener Aussage Eltern warnen, wenn ihre Schützlinge sexuell explizite Bilder empfangen oder verbreiten. Das Scannen schließt auch iMessage-Inhalte mit ein.
Kritiker glauben nicht daran, dass sich der Großkonzern plötzlich dem Kampf gegen Kinderpornografie verschrieben hat. Bei dem für das Unternehmen aufwendigen und kostspieligen CSAM-Scanning handle es sich um den ersten Schritt in Richtung Zugriff auf verschlüsselte Inhalte, so der Vorwurf.
Auch Edward Snowden verleitete das Vorhaben des Großkonzerns zu einer Reaktion. Auf Twitter teilte der bekannte NSA-Whistleblower in diesem Zusammenhang das Zitat eines Sicherheitsexperten:
"Das ist eine absolut schreckliche Idee, weil sie zu einer gestreuten Massenüberwachung unserer Telefone und Laptops führen wird."
Mehr zum Thema - Studie zu Mobilfunk-Beschattung durch US-Armee in Russland: Software nutzt Daten kommerzieller Apps