International

Nur zum Kampf gegen Kinderpornografie? Apple durchsucht Bildmaterial seiner Kunden

Der IT-Konzern Apple will aus den Fotos der Nutzer von iPhones und iPads kinderpornografische Inhalte herausfiltern und fragwürdiges Material den Behörden melden. Apple betont, die Privatsphäre der Kunden bleibe gewährleistet. Kritiker sprechen von "gestreuter Massenüberwachung".
Nur zum Kampf gegen Kinderpornografie? Apple durchsucht Bildmaterial seiner KundenQuelle: www.globallookpress.com © Jaap Arriens

Apple sagt der Verbreitung von Kinderpornografie den Kampf an und will in diesem Zusammenhang auch helfen, vermisste Kinder zu finden. Wie der Konzern mitteilt, soll für den Fall, dass beim Durchsuchen der Bilder auf Apple-Geräten privater Nutzer "Child Sexual Abuse Material" (CSAM) entdeckt wird, dieses dem Center for Missing and Exploited Children (NCMEC) in den USA zur Verfügung gestellt wird. Es kann dort mit  gespeicherten Bildern verglichen werden. Die Bilder müssen dazu in ihrer Auflösungsqualität nicht gleich sein.

Dies alles geschieht ohne Wissen des Nutzers, bevor Bildmaterial in die iCloud hochgeladen wird. Damit die Datensicherheit gewährleistet bleibt, hat sich Apple entschieden, ein Bild, welches das System als kinderpornografisch einstuft, zunächst mit einem Hinweis "Safety Voucher" zu versehen.

Die Entschlüsselung samt Metadaten wird bei Apple nur dann durchgeführt, wenn der Nutzer einen "Grenzwert" von CSAM-Inhalten überschreitet. Der Grenzwert wird nicht weiter definiert, soll aber dem Apple-Kunden die Sicherheit geben, dass er nicht leichtfertig und fälschlicherweise als Verbreiter von Kinderpornografie identifiziert wird. Das Apple-Konto des Nutzers wird gesperrt, wenn der Schwellenwert überschritten wird. 

In einem Weißbuch schreibt Apple hierzu: 

"Die CSAM-Erkennung ermöglicht es Apple, iCloud-Nutzer genau zu identifizieren und zu melden, welche Material mit sexuellen Kindesmissbrauch in ihren iCloud-Fotokonten speichern. Appleserver markieren Konten, die eine bestimmte Anzahl von Bildern enthalten, die mit einer bekannten Datenbank mit Hashes von CSAM-Bildern übereinstimmen, sodass Apple die entsprechenden Informationen an das National Center for Missing and Exploited Children (NCMEC) geben kann. Dieser Prozess ist sicher, und wurde ausdrücklich entwickelt, um die Privatsphäre der Nutzer zu schützen." 

Das Risiko ein Konto fälschlicher Weise zu kennzeichnen, sei gering. Zudem würden die Berichte manuell überprüft. Für die Benutzer sei es von Vorteil, dass sie nicht feststellen können, welche Bilder als CSAM gekennzeichnet wurden. 

Bei Minderjährigen Apple-Gerätenutzern geht das Unternehmen bereits einen Schritt weiter und will nach eigener Aussage Eltern warnen, wenn ihre Schützlinge sexuell explizite Bilder empfangen oder verbreiten. Das Scannen schließt auch iMessage-Inhalte mit ein. 

Kritiker glauben nicht daran, dass sich der Großkonzern plötzlich dem Kampf gegen Kinderpornografie verschrieben hat. Bei dem für das Unternehmen aufwendigen und kostspieligen CSAM-Scanning handle es sich um den ersten Schritt in Richtung Zugriff auf verschlüsselte Inhalte, so der Vorwurf.

Auch Edward Snowden verleitete das Vorhaben des Großkonzerns zu einer Reaktion. Auf Twitter teilte der bekannte NSA-Whistleblower in diesem Zusammenhang das Zitat eines Sicherheitsexperten: 

"Das ist eine absolut schreckliche Idee, weil sie zu einer gestreuten Massenüberwachung unserer Telefone und Laptops führen wird."

Mehr zum Thema - Studie zu Mobilfunk-Beschattung durch US-Armee in Russland: Software nutzt Daten kommerzieller Apps

Sehr geehrte RT DE-Leser,

wir sind auf einen neuen Dienst für die Kommentarfunktion umgestiegen.

Da wir die Privatsphäre unserer Leser respektieren und Ihre Daten nicht an eine Drittplattform übermitteln werden, müssen Sie sich erneut registrieren. Wir entschuldigen uns für die Unannehmlichkeit und hoffen, dass sie sich weiterhin mittels der Kommentarfunktion über aktuelle Themen austauschen und informieren können.

Mit freundlichen Grüßen

Ihre RT DE-Redaktion