Kampf gegen Kindesmissbrauch Durchsucht Apple bald alle meine iPhone-Fotos?

Das sehr auf die Privatsphäre seiner Kundschaft bedachte Unternehmen will Abbildungen von sexuellem Missbrauch auf seinen Geräten erkennen. Wie soll das gehen? Die wichtigsten Fragen und Antworten.
iPhone-Werbung: Ist Apples neue Technik eine Hintertür?

iPhone-Werbung: Ist Apples neue Technik eine Hintertür?

Foto: PHILIP FONG / AFP

Dieser Artikel gehört zum Angebot von SPIEGEL+. Sie können ihn auch ohne Abonnement lesen, weil er Ihnen geschenkt wurde.

Bürgerrechtler sprechen von einer »Hintertür in Ihr Privatleben« , die Apple zwar mit besten Absichten in seine Produkte einbaue, die aber trotzdem eine Hintertür sei: Drei neue Funktionen sollen helfen, Täter zu finden, die Bilder von sexuellem Missbrauch an Kindern verbreiten oder besitzen. Im Herbst werden sie eingeführt, wenn auch zunächst nur in den USA. Im Kern bedeuten sie eines: Apple analysiert künftig automatisch Fotos von Nutzerinnen und Nutzern auf iPhones, iPads und Macs auf illegale Inhalte. Sicherheitsvorkehrungen sollen dabei dafür sorgen, dass niemand zu Unrecht in Verdacht gerät.

Die wichtigsten Fragen und Antworten dazu im Überblick:

Um welche Apple-Geräte und -Software geht es?

Die neuen Funktionen werden in den Betriebssystemen iOS 15, iPadOS 15, watchOS 8 sowie macOS Monterey enthalten sein, die im Herbst für alle Nutzerinnen und Nutzer zum Download zur Verfügung stehen sollen. Entsprechend geht es um iPhones, iPads, den iPod Touch, die Apple Watch sowie alle Macs – also Apple-Geräte, auf denen Apples Chat-App iMessage läuft und/oder die Fotos an den Cloudspeicherdienst iCloud senden können.

Was können die neuen Funktionen im besten Fall leisten?

Im Optimalfall verhindert eine neue iMessage-Funktion, dass Kinder pornografische und damit illegale Bilder von sich selbst verschicken oder pornografische Bilder empfangen. Sie analysiert mithilfe von Machine Learning auf dem Gerät des Kindes alle neuen Bilder im iMessage-Chatverlauf und soll erkennen, wenn es sich um »explizit sexuelle Fotos« handelt. Wenn ja, wird das Foto zunächst nicht angezeigt.

Das Kind bekommt verkürzt gesagt einen Hinweis, dass es gerade im Begriff ist, sich etwas anzusehen, das ihm wehtun könnte beziehungsweise, dass es im Begriff ist, etwas zu verschicken, das es besser nicht verschicken sollte. Als zusätzliche Option können in beiden Fällen auch die Eltern benachrichtigt werden. So will Apple verhindern, dass jemand Kinder überredet, Nacktfotos von sich zu verschicken oder sich solche Fotos anzusehen. Diese Funktion muss aber nach den bisherigen Informationen von den Eltern gezielt eingeschaltet werden. Erwachsene Nutzerinnen und Nutzer wären demnach nicht betroffen.

Außerdem wird Apple künftig jedes Foto vor dem Upload in die iCloud auf dem Gerät analysieren, um den Tausch und Besitz von Missbrauchsdarstellungen zu bekämpfen. Das Ziel ist es, Täter zu identifizieren und den Anstoß zu Ermittlungen zu geben, die Privatsphäre aller anderen aber unangetastet zu lassen.

Bleibt Apples Verschlüsselung intakt?

Nach Apples eigener Darstellung  ist dem Unternehmen die Quadratur des Kreises gelungen: Einerseits soll Kindesmissbrauch enttarnt werden, andererseits alle sonstigen Dateien in der iCloud unlesbar für Apple verschlüsselt bleiben.

Das soll so funktionieren: Zur Erkennung bekannter Bilder von Kindesmissbrauch setzt Apple eine Technik namens NeuralHash ein, die Motive auch dann erkennen soll, wenn sie durch einen Filter verfremdet wurden oder die Dateien einen anderen Bildausschnitt zeigen. Lädt jemand ein Bild auf die iCloud-Server hoch, gleicht Apple die NeuralHash-Signatur mit einer Datenbank bekannter Missbrauchsbilder ab, die von der amerikanischen Hilfsorganisation »National Center for Missing & Exploited Children« (NCMEC) bereitgestellt wurde.

Befindet sich der Hash-Wert eines Bildes auf der Liste, wird die Datei so manipuliert, dass Apple die Verschlüsselung gegebenenfalls auf dem Server aufheben kann. Diese Entschlüsselung soll aber erst dann möglich sein, wenn mehrere verdächtige Dateien identifiziert wurden, damit nicht schon ein einziger »false-positive«-Treffer Konsequenzen hat. In der technischen Beschreibung des neuen Systems  heißt es, dass die Wahrscheinlichkeit einer falschen Freischaltung von Dateien eins zu einer Billion (engl. »trillion«) betrage. Wird der öffentlich unbekannte Schwellenwert nicht erreicht, soll Apple auch nicht erfahren, ob bereits Dateien in einem Account markiert wurden.

Wer bekommt unter welchen Umständen private Nutzerfotos zu sehen?

Identifizieren Apples Filter eine gewisse Anzahl bekannter Missbrauchsbilder, werden zunächst Apple-Angestellte die entsprechenden Dateien ansehen und gegebenenfalls an die US-Behörden melden. Noch ist der genaue Umfang allerdings nicht klar – über eine internationale Zusammenarbeit könnten sich in Zukunft auch weitere Behörden an dem Programm beteiligen.

Was könnte schiefgehen?

Auf zwei Ebenen könnten sich die Neuerungen als problematisch bis katastrophal erweisen. Auf der individuellen Ebene wäre das der Fall, wenn sich die Technik als fehleranfällig erweist. Wer plötzlich harmlose Fotos nicht mehr ohne Weiteres in iMessage sehen oder versenden kann, weil Apples Software sie fälschlicherweise als pornografisch einstuft, wird das als übergriffig wahrnehmen – zumal von einem Unternehmen, das mit dem Schutz der Privatsphäre offensiv wirbt. Auch eine korrekte Identifizierung sexuellen Materials kann als übergriffig empfunden werden. Nach Medienberichten will Apple deshalb bei Kindern über 13 Jahren keine Benachrichtigung an die Eltern verschicken.

Noch deutlich kritischer wäre es, wenn ein Nutzer oder eine Nutzerin fälschlicherweise verdächtigt wird, Missbrauchsbilder in die iCloud hochladen zu wollen. Im ersten Schritt würden Apple-Mitarbeiter die verdächtigen Fotos zu sehen bekommen, im Extremfall werden NCMEC und in der Folge Ermittlungsbehörden eingeschaltet.

Falsch-positive Treffer sind denkbar, wenn es zu sogenannten Hash-Kollisionen kommt: Manche Bilder könnten gleiche Hash-Werte haben, aber völlig andere Dinge zeigen. Apples Sicherheitsvorkehrungen bestehen darin, dass es mehrere Treffer geben muss, bevor Apple die Bilder sehen kann, und dass menschliche Mitarbeiter die Fälle dann überprüfen.

Auf politisch-gesellschaftlicher Ebene wäre ein erzwungener Aus- oder Umbau der einmal eingeführten technischen Infrastruktur die wohl größte Bedrohung. Autoritäre Regime könnten Apple per Gesetz zwingen, die Technik auch zur Erkennung anderer Inhalte einzusetzen, befürchten unter anderem der Kryptografie-Experte Matthew Green , Whistleblower Edward Snowden  und Bürgerrechtsorganisationen wie die Electronic Frontier Foundation (EFF): »Regierungen, die Homosexualität verbieten, könnten von Apple verlangen, dass es seine Erkennung auf LGBTQ+-Inhalte trainiert. Ein autoritäres Regime könnte verlangen, dass die Technik in die Lage versetzt wird, beliebte satirische Darstellungen oder Protestschreiben zu entdecken. Wir haben solche Fälle von ›mission creep‹ schon gesehen.« Kommt es so weit, hätte das Unternehmen die Wahl, bei derartigen Menschenrechtsverletzungen mitzumachen oder auf Geschäfte in dem jeweiligen Land zu verzichten. Apple verweist auf Anfrage darauf, dass die Technik zunächst nur in den USA eingesetzt wird und dass vor einer Ausweitung auf andere Länder noch »juristische Fragen« zu klären seien.

Ist das alles komplett neu?

Der Kampf gegen Kindesmissbrauch im Internet dauert schon fast zwei Jahrzehnte. Es ist ein technischer Wettlauf: Die ersten Filter suchten nach spezifischen Bilddateien, die Ermittler zum Beispiel auf den Festplatten von Pädokriminellen oder in Tauschbörsen gefunden hatten. Da Kriminelle die Dateien aber leicht gegen Entdeckung schützen konnten, führte Microsoft bereits 2009 die Technik »PhotoDNA« ein, die einen digitalen Fingerabdruck der Dateien erstellte, um sie auch nach einer Verfremdung wiederzuerkennen. Die Betreiber der großen Plattformen scannen mit solchen Filtern die Datenbestände auf ihren Servern und melden Funde an die Behörden.

Apples Initiative geht an zwei Stellen weiter. Zum einen verlagert das Unternehmen die Erkennung auf die Endgeräte wie iPhones und iPads. Damit zieht es die Konsequenz daraus, dass immer mehr Daten in der Cloud nur verschlüsselt abgespeichert werden, sodass auch Apple selbst die Inhalte nicht mehr einsehen kann.

Zum Zweiten: Mittels einer sogenannten künstlichen Intelligenz will Apple Motive erkennen, die bisher noch unbekannt sind, aber potenziell einen Missbrauch darstellen könnten. Wenn also Kinder von Pädokriminellen dazu gebracht werden, Nacktbilder zu versenden, soll das System Alarm schlagen.

Wie unterscheidet Apple zwischen US- und anderen Nutzern?

Auf der Website von Apple heißt es bisher lediglich, die neue Funktionen sollten »in den USA erhältlich« sein. Auf Nachfrage des SPIEGEL teilte Apple mit, dass jedes iCloud-Konto beim Erstellen dauerhaft einem Land zugeordnet wird. Dementsprechend werden die neuen Funktionen zunächst nur US-amerikanische Nutzerkonten betreffen.

Die »Anstrengungen«, heißt es auf der Seite, sollen »mit der Zeit weiterentwickelt und ausgeweitet« werden. Gemeint ist die geografische Ausbreitung auf andere Länder. Dazu, sagte ein Apple-Sprecher, müssten aber zunächst noch juristische Fragen geklärt werden.

Hilft Apples Technik tatsächlich den Behörden, mehr Täter zu finden?

Strafverfolgungsbehörden weltweit dürften angesichts von Apples neuen Plänen erfreut sein. Apple kommt damit auch Forderungen von EU-Ministern entgegen, dass schwere Straftaten auch dann verfolgt werden können, wenn die Kommunikation dazu verschlüsselt ist. Ein entsprechender Vorstoß zu Hintertüren in Handys , der auch vom deutschen Innenministerium unterstützt wurde, war im vergangenen November publik geworden.

Zwar wird Apple die Technik zunächst nur bei US-Nutzerinnen und -Nutzern einsetzen, doch wenn die Technik – wie zu erwarten ist – auch in Europa ausgerollt wird, dann dürften auch deutsche Ermittler davon profitieren. Denn die Hilfsorganisation NCMEC leitet entsprechende Hinweise auf Missbrauchsdarstellungen über amerikanische Behörden grundsätzlich an das Bundeskriminalamt (BKA) weiter, wenn eine Spur nach Deutschland führt. Schon heute landen beim BKA in Wiesbaden zwischen wenigen Dutzend und rund hundert Meldungen pro Tag über potenzielle Verbreiter von Missbrauchsdarstellungen, heißt es aus Ermittlerkreisen.

Dass Apple nun auch seine Cloud nach Missbrauchsdarstellungen scannt, dürfte diese Zahl noch einmal erhöhen. Tatsächlich sind NCMEC-Meldungen einer der wichtigsten Ermittlungsansätze für Ermittler beim Kampf gegen Kindesmissbrauch im Netz, heißt es von Strafverfolgern. Gerade NCMEC-Meldungen würden immer wieder zu größeren und bedeutenden neuen Verfahren in Deutschland führen.

»Dass in Zukunft auch Bilder bei iCloud mit Datenbanken von bekannten Missbrauchsdarstellungen abgeglichen werden sollen, wird uns helfen, neue Verfahren zu eröffnen und mehr Täter zu ermitteln«, heißt es von Oberstaatsanwalt Thomas Goger, der in Bamberg das bayernweite Zentrum zur Bekämpfung von Kinderpornografie und sexuellem Missbrauch im Internet leitet. »Selbstverständlich begrüßen wir es außerordentlich, wenn nun auch Apple den Kampf gegen Kindesmissbrauchsaufnahmen stärker in den Fokus nimmt«, so Goger zu Apples neuen Plänen.

Eine BKA-Sprecherin sagte dem SPIEGEL: »Aus fachlicher Sicht ist eine solche Initiative grundsätzlich zu begrüßen, da die Strafverfolgungsbehörden von einer sinnvollen Mitwirkung zur Bekämpfung von Sexualdelikten zum Nachteil von Kindern und Jugendlichen profitieren können – hier insbesondere zur Entdeckung bisher unbekannter Missbrauchsfälle und der Ermittlung potenzieller Täter.«

Die Wiedergabe wurde unterbrochen.