Neue Software Facebook entfernt Millionen Kindernacktfotos

Facebook will verstärkt gegen Kinderpornografie vorgehen: Mithilfe einer neuen Software wurden zuletzt 8,7 Millionen Beiträge in dem Netzwerk gelöscht. Wie viele davon pornografischen Hintergrund hatten, ist aber unklar.

Facebook-User (Symbolbild)
REUTERS

Facebook-User (Symbolbild)


Facebook hat im vergangenen Quartal 8,7 Millionen Beiträge gelöscht, die gegen die Regeln des Unternehmens zum Schutz vor Kinderausbeutung und Kindernacktheit verstoßen haben. Das erklärte Facebook am Mittwoch. Man habe dafür eine neue Software eingesetzt, die beispielsweise Nacktfotos von Kindern automatisch erkennt. In 99 Prozent der Fälle löschte Facebook die Beiträge demnach, bevor sie von anderen gemeldet wurden.

In der Vergangenheit wurden auf Basis von Facebooks Regeln auch harmlose Familienfotos mit leicht bekleideten Kindern verbannt. Antigone Davis, Chefin des Sicherheitsteams bei Facebook, sagte, auch das neue System werde sicherlich Fehler machen. Nutzer könnten dann Widerspruch einlegen.

Ausnahmen für Kunstwerke und Fotos der Zeitgeschichte

Die Software berücksichtige nun neben Nacktheit auch andere Faktoren: etwa die Anzahl der Menschen, die einen bestimmten User blockiert haben, oder wenn ein User auffällig oft Kinder kontaktiere. Wie viele der 8,7 Millionen gelöschten Beiträge aber am Ende wirklich einen kinderpornografischen Hintergrund hatten, teilte das Unternehmen nicht mit.

Michelle DeLaune vom nationalen Zentrum für vermisste und ausgebeutete Kinder in den USA erklärte, ihre Organisation erhalte dieses Jahr schätzungsweise 16 Millionen Hinweise auf mutmaßliche Kinderpornos von Facebook und anderen Tech-Unternehmen. Im vergangenen Jahr seien es 10 Millionen gewesen. Die Technologie soll nun auch bei Instagram angewendet werden.

sth/Reuters

Mehr zum Thema


TOP
Die Homepage wurde aktualisiert. Jetzt aufrufen.
Hinweis nicht mehr anzeigen.