Apple will neue Wege beim Aufspüren kinderpornografischer Inhalte beschreiten. (Reuters)

Apple will den Kampf gegen Kinderpornografie künftig mit einem radikalen Schritt unterstützen. Der Konzern will von Herbst an zunächst Fotos auf Geräten von US-Nutzern bei Nutzung des hauseigenen Online-Speicherdienstes iCloud mit bekanntem kinderpornografischem Material abgleichen lassen. Apple stellte dafür am Donnerstag ein komplexes Verfahren vor, das gleichzeitig den Datenschutz sicherstellen soll.

Bei Vorliegen eines bestimmten Quantums an Matches wird NCMEC informiert
Für den Abgleich soll auf die Geräte eine Datei mit sogenannten „Hashes“ von bereits bekannten kinderpornografischen Inhalten geladen werden - eine Art digitaler Fingerabdruck der entsprechenden Bilder. Darüber lässt sich bei einem Vergleich mittels eines speziellen Verfahrens eine Kopie des Fotos erkennen, das Original kann aus dem Hash aber nicht wiederhergestellt werden.
Im Fall einer Übereinstimmung werden verdächtige Bilder mit einem Zertifikat versehen, das es Apple ermöglicht, sie nach dem Hochladen zur iCloud ausnahmsweise zu öffnen und einer Prüfung zu unterziehen. Das System schlägt erst Alarm, wenn es eine bestimmte Anzahl von Treffern gibt. Wie viele dafür erforderlich sein werden, wird nicht öffentlich gemacht.
Wird dann bei der Überprüfung tatsächlich kinderpornografisches Material entdeckt, meldet Apple dies der amerikanischen Nichtregierungsorganisation NCMEC (National Center for Missing & Exploited Children), die wiederum Behörden einschalten kann. Funktion vorerst nur für Apple-Kunden mit US-Accounts aktiv
Während die Funktion vorerst nur für Apple-Kunden mit US-Accounts aktiviert wird, ist die Datei mit den Hashes fester Teil des Betriebssystems. Sie soll damit auf alle iPhones geladen werden, auf denen diese Systemversion installiert wird. Aktualisiert werden soll die Liste auf den Geräten entsprechend mit Erscheinen neuer Versionen der Betriebssysteme von iPhones und iPad-Tablets. Vor einer internationalen Einführung der Funktion müssen erst noch rechtliche Voraussetzungen geklärt werden.
Nutzer, bei denen durch den Abgleich bekanntes kinderpornografisches Material gefunden wird, werden darüber nicht unterrichtet. Allerdings wird dabei ihr Konto gesperrt. Den Abgleich über Hashes nutzen zum Beispiel auch Online-Plattformen, um solche Inhalte bereits beim Hochladen zu entdecken und deren Veröffentlichung zu verhindern. Das Verfahren funktioniert nach Branchenangaben praktisch fehlerfrei für Fotos - greift aber noch nicht bei Videos. Verschlüsselung von privater Kommunikation als Streitpunkt
Kritiker der heute gängigen Verschlüsselung von privater Kommunikation in Chatdiensten und auf Smartphones führen oft den Kampf gegen sexuellen Kindesmissbrauch als Argument auf, um Hintertüren für Behörden zu fordern. Apples angekündigtes System ist ein Versuch, das Problem auf andere Weise zu lösen. Der Konzern wehrte sich wiederholt gegen Forderungen von US-Sicherheitsbehörden, die Verschlüsselung seiner Geräte bei Ermittlungen zu knacken. Der Fokus auf Hashes von bereits bekannten Fotos bedeutet zugleich, dass neue auf den Geräten erstellte Inhalte nicht entdeckt werden.
Apple veröffentlichte Analysen mehrerer Experten, die den besseren Datenschutz bei dem Verfahren begrüßten. Zugleich kritisierte bei Twitter ein Kryptografie-Experte an der US-Universität Johns Hopkins, Matthew Green, dass überhaupt die Möglichkeit zum Abgleich von Dateien auf den Geräten geschaffen werde. Er sieht speziell die Gefahr, dass jemand Hashes für andere Inhalte auf Geräte schleusen könnte - und dass autoritäre Regierungen Vorschriften zur Suche nach anderen Inhalten auf diese Weise erlassen könnten.
Mit einer weiteren Funktion wird es künftig die Möglichkeit geben, dass Eltern eine Warnmeldung erhalten, wenn ihr Kind in Apples Chatdienst iMessage Nacktfotos erhält oder verschickt. Die Nacktheit in den Bildern wird dabei von Software auf dem Gerät erkannt. Der Konzern erfährt nichts davon.

DPA