Kinderschutz in Messenger-App Apples Nacktfotoscanner für iPhones startet international

Eltern in Großbritannien können auf iPhones ihrer Kinder bald eine neue Jugendschutzfunktion aktivieren: Empfangen die Minderjährigen Bilder, auf denen »Nacktheit« zu sehen ist, werden diese verpixelt.
Warnfunktion von Apple: »This photo could be sensitive«

Warnfunktion von Apple: »This photo could be sensitive«

Foto: Apple

Bereits im Herbst des vergangenen Jahres wollte Apple mehrere neue Jugendschutzfunktionen in seinen Betriebssystemen einführen. Doch nach Protesten unter anderem von Bürgerrechtlern verschob der iPhone-Hersteller das Vorhaben auf zunächst unbestimmte Zeit. Nun aber sollen die Pläne doch noch international umgesetzt werden, wenn auch nur schrittweise und in abgespeckter Form. Den Anfang machten im Dezember die USA, nun werden Großbritannien, Kanada, Australien und Neuseeland folgen, wie »The Verge« und der »Guardian« berichten . Apple selbst bestätigte dem SPIEGEL, dass Großbritannien »in den nächsten Wochen« an der Reihe ist, »weitere Länder sollen in diesem Jahr folgen«. Ob Deutschland dann darunter sein wird, bleibt damit fürs Erste unklar.

Die wichtigste Neuerung betrifft die »Nachrichten«-App in iOS, iPadOS und macOS, also Apples geräteübergreifende SMS-Alternative iMessage. Sofern Eltern über die »Familienfreigabe« das iPhone eines Kindes verwalten, werden sie hier künftig eine Warnfunktion aktivieren können: Empfängt das Kind über die »Nachrichten«-App ein Foto, auf dem »Nacktheit« zu sehen ist, wird das Bild verwischt und es erscheinen Hilfeoptionen, darunter die Möglichkeit, den Kontakt zu blockieren oder jemand anderen zu informieren. Auch wenn das Kind versucht, ein entsprechendes Bild selbst zu versenden, erhält es zunächst einen Warnhinweis. Apple will damit verhindern, dass jemand Kinder überredet, Nacktfotos von sich zu verschicken oder sich solche Fotos anzusehen.

Scans finden nur auf dem Gerät selbst statt

Die Überprüfung der Bilder erfolgt nach Angaben von Apple ausschließlich lokal auf dem iPhone. Client-Side Scanning wird das genannt. Weder Apple noch die Eltern erfahren automatisch, ob Apples künstliche Intelligenz entsprechendes Material erkannt haben will. Bei der ersten Präsentation der Pläne 2021 war eine automatische Warnung an die Eltern oder Sorgeberechtigten von Unter-14-Jährigen noch vorgesehen. Kritiker hatten argumentiert, dass dies zum unfreiwilligen Outing nicht-heterosexueller Kinder führen könnte.

Aus der Beschreibung des Unternehmens  geht nicht hervor, was unter »Nacktheit« fällt und was nicht. Im Herbst 2021 war jedoch von »explizit sexuellen Fotos« die Rede.

Außerdem will Apple den Berichten zufolge eine Funktion in der Suche mit Spotlight, Safari und Siri weiter ausrollen, die auf Hilfsangebote verweist, wenn jemand nach Begriffen sucht, die mit der Darstellung von Kindesmisshandlung in Zusammenhang stehen.

Die dritte, ursprünglich geplante Neuerung gibt es weiterhin in keinem Land, auch nicht in den USA: Apple wollte auf seinen Geräten Bilder von sexuellem Missbrauch von Kindern automatisch erkennen und melden, sobald sie von Nutzern in den Onlinespeicher iCloud hochgeladen werden. Dafür sollten die Fotos automatisch mit einer Datenbank bekannter Missbrauchsbilder abgeglichen werden, die von Kinderschutzorganisationen zur Verfügung gestellt werden. Hätten Apples Filter eine gewisse Anzahl bekannter Missbrauchsbilder identifiziert, sollten zunächst Apple-Angestellte die entsprechenden Dateien ansehen und gegebenenfalls an die Behörden melden. (Alles Wichtige zu den technischen Einzelheiten lesen Sie hier.)

Die große Sorge von Bürgerrechtlern war damals, dass autoritäre Regierungen von Apple verlangen könnten, die neue Technik, wenn sie erst einmal eingerichtet ist, auch zur Suche nach anderen Inhalten und damit zur Zensur und Überwachung einzusetzen.

pbe
Mehr lesen über