Jugendschutz in Messenger-App Apples Nacktfotoscanner für iPhones startet nun auch in Deutschland

Erkennt ein iPhone, dass Kinder Nacktbilder senden oder empfangen, schreitet die Software ein: Die zwischenzeitlich auf Eis gelegte Jugendschutzfunktion können Eltern nun auch hierzulande aktivieren.
Die Warnhinweise bei Erkennung eines Nacktfotos in der App, hier in der englischen Fassung

Die Warnhinweise bei Erkennung eines Nacktfotos in der App, hier in der englischen Fassung

Foto: Apple

Das vielleicht Wichtigste zuerst: Apple wird nicht plötzlich damit beginnen, alle über die Nachrichten-App verbreiteten Fotos und Videos auf Nacktheit zu prüfen.

Die Funktion kann ab sofort auch in Deutschland und Frankreich genutzt werden, sie ist Teil der »Familienfreigabe« in der am Mittwoch veröffentlichten Betaversion von iOS 16, iPadOS 16 und macOS Ventura  für Entwickler. Um die installieren zu können, braucht man einen Entwickler-Account, die öffentliche Betaversion für alle wird erst später veröffentlicht. Die Kinderschutzfunktion muss dann noch aktiviert werden, bevor der Scanner loslegt.

Empfängt das Kind dann über die Nachrichten-App (Apples SMS-Alternative) ein Foto, das von Apple als Nacktbild identifiziert wird, wird das Bild verwischt und es erscheinen Hilfeoptionen. So kann das Kind den Kontakt blockieren, jemand anderen informieren oder nach ausdrücklicher Bestätigung den Inhalt ansehen. Der Scanner wirkt in beide Richtungen. Auch wenn das Kind selbst versucht, ein entsprechendes Bild zu versenden, bekommt es eine Warnung präsentiert. Apple will so verhindern, dass jemand Kinder überredet, Nacktfotos von sich zu verschicken oder sich solche Fotos anzusehen. Damit soll dem sexuellen Missbrauch und dem sogenannten Cybergrooming vorgebeugt werden.

Keine automatische Warnung an die Eltern oder an Apple

Die Überprüfung der Bilder erfolgt nach Unternehmensangaben ausschließlich lokal auf dem iPhone. Client-Side Scanning wird das genannt. Weder Apple noch die Eltern erfahren automatisch, ob die Software entsprechendes Material erkannt haben will.

Aus der englischen Beschreibung des Unternehmens  geht nicht hervor, was unter »Nacktheit« fällt und was nicht. Im Herbst 2021 war von »explizit sexuellen Fotos« die Rede. Auf Nachfrage führte Apple nun aber aus, dass auch die reine Sichtbarkeit von Genitalien ausreichen kann, um die Hinweise auszulösen. Das Unternehmen sammelt nach eigenen Angaben auf verschiedenen Kanälen Feedback, um die Erkennung zu verbessern. Ein Update ist allerdings nur im Rahmen von Betriebssystem-Updates möglich, findet also nicht permanent statt.

Ursprünglich hatte Apple ein größeres Paket angekündigt, um die Verbreitung von Missbrauchsbildern über seine Dienste und Geräte sowie Groomingversuche einzudämmen. Doch zumindest eine der Ideen des Unternehmens stieß 2021 auf so viel Gegenwind von Bürgerrechtsorganisationen, dass Apple den Plan vorübergehend auf Eis legte.

Dabei ging es Apple darum, Bilder von sexuellem Missbrauch von Kindern auf den Geräten seiner Kunden automatisch zu erkennen und zu melden, sobald sie in den Onlinespeicher iCloud hochgeladen werden. Dafür sollten die Fotos – wiederum lokal auf dem Gerät – automatisch mit einer Datenbank bekannter Missbrauchsbilder abgeglichen werden, die von Kinderschutzorganisationen zur Verfügung gestellt werden.

Apples Idee wurde von der Politik aufgegriffen

Hätten Apples Filter eine gewisse Anzahl bekannter Missbrauchsbilder identifiziert, sollten zunächst Apple-Angestellte die entsprechenden Dateien ansehen und gegebenenfalls an die Behörden melden. (Alles Wichtige zu den technischen Einzelheiten lesen Sie hier.) Damals lautete die Kritik, dass autoritäre Regierungen von Apple verlangen könnten, die neue Technik auch zur Suche nach anderen Inhalten und damit zur Zensur und Überwachung einzusetzen.

Zwar wies Apple diese Befürchtung zurück, doch die Debatte blieb nicht ohne Folgen. Das Unternehmen hat die Funktion bis heute nirgends eingeführt. Aber auf politischer Ebene, etwa im von Kritikern »Chatkontrolle« genannten Vorschlag der EU-Kommission zur Bekämpfung von sexuellem Missbrauch, ist Client-Side Scanning mittlerweile ein regelmäßig vorgeschlagenes Instrument. Dass Apple eines Tages gesetzlich gezwungen wird, die Technik zu aktivieren, ist deshalb nicht ausgeschlossen.

Anmerkung der Redaktion: Der Artikel wurde um den Hinweis ergänzt, dass es sich bei den neuen Betaversionen der Apple-Betriebssysteme um die speziell für Entwickler gedachten Versionen handelt.

Die Wiedergabe wurde unterbrochen.