Neue Datenbank Google, Facebook und Co. wollen Kinderpornografie schneller erkennen

Fünf große Tech-Konzerne haben ihr System zum Erkennen von Kinderpornografie verbessert - Google, Facebook und Twitter nutzen nun eine neue gemeinsame Datenbank. Doch auch die hat ihre Grenzen.


Google, Microsoft, Yahoo, Facebook und Twitter haben sich einer Initiative zur Bekämpfung von Kinderpornografie im Internet angeschlossen. Wie die in Großbritannien ansässige Stiftung Internet Watch am Montag mitteilte, übernehmen die Unternehmen ein System, mit dem sich Kinderporno-Bilder identifizieren und blockieren lassen.

Analysten der Stiftung versehen derartige Bilder mit individuellen digitalen Fingerabdrücken, die in einer Datenbank gesammelt werden. Stoßen die Internetunternehmen auf Bilder mit einem dieser Abdrücke, können sie das Foto gezielt herausfiltern und so verhindern, dass es zum Beispiel in ihrem sozialen Netzwerk veröffentlicht wird. Die Internet-Watch-Analysten sollen sowohl Hinweisen von Bürgern und Unternehmen nachgehen, als auch aktiv nach problematischen Inhalten suchen.

Das neue Vorgehen könne den Durchbruch im Kampf gegen Kinderpornografie im Internet bringen, sagt Stiftungschefin Susie Hargreaves. "Es bedeutet, dass die Bilder von Opfern schneller identifiziert und entfernt werden können und wir verhindern können, dass bekannte Bilder von Kindesmissbrauch überhaupt im Internet hochgeladen werden können."

Immer wieder gibt es Funde

Die meisten größeren Tech-Unternehmen nutzen bereits seit Längerem Datenbanken mit digitalen Fingerabdrücken - den sogenannten Hash-Werten - bekannter kinderpornografischer Abbildungen. Vor einigen Monaten etwa führte ein Hinweis von Microsoft zu einer Hausdurchsuchung bei einem deutschen OneDrive-Nutzer. Der Konzern hatte zuvor eine fragwürdige Datei im Onlinespeicher des Mannes entdeckt. Ähnliche Fälle gab es auch bei anderen Anbietern.

Der jetzt angekündigte Kooperation mit Internet Watch sieht vor, dass die Stiftung ihre Hash-Werte-Datenbank zunächst den fünf Tech-Konzernen zur Verfügung stellt. Künftig sollen aber auch weitere Stiftungspartner Zugriff darauf haben. Um den Fotos die digitalen Fingerabdrücke zuzuordnen, will Internet Watch insgesamt drei Techniken anwenden: das von Microsoft entwickelte Verfahren PhotoDNA und die Hash-Verfahren MD5 und SHA-1.

So sinnvoll der Plan klingt und so viele bekannte Internetplattformen er abdeckt, das Internet-Watch-System hat seine Grenzen: So kann Kinderpornografie in Videoform noch kein Fingerabdruck zugeordnet werden, ebenso betrifft das Filtersystem natürlich nur die Dienste der großen Konzerne, nicht aber beispielsweise das sogenannte Darknet.

Und wie bei allen Filtersystemen besteht zumindest prinzipiell die Gefahr, dass das System genutzt werden könnte, um neben Kinderpornografie auch andere missliebige Inhalte zu sperren.

mbö/AFP

Mehr zum Thema


Forum - Diskutieren Sie über diesen Artikel
insgesamt 5 Beiträge
Alle Kommentare öffnen
Seite 1
dasdondel 11.08.2015
1. mehrdeutig
hash Verfahren sind immer mehrdeutig. das heisst verschiedene Bilder haben identische Hashs. Daraus folgt unmittelbar, das bei automatischer Verwendung Bilder gesperrt werden, die nichts mit Pornographie zu tun haben. Das muss nicht mal ähnlich sein - ich meine damit nicht das Bild des Sohnes in Badehosen am See - jedes Foto kann dasselbe Hash haben wie ein Pornobild. Das wird richtig problematisch, wenn jemand auf die Idee kommt Absender IPs gesperrter Bilder automatisch an Behörden zu schicken. Dann kommt man eventuell unter Verdacht, weil man einen Kaktus fotografiert hat.
sesky 11.08.2015
2. @dasdondel
Das ist zwar korrekt, allerdings ist es astronomisch unwahrscheinlich dass zwei unterschiedliche bilder die nicht absichtlich manipuliert wurden den selben hashwert erzeugen. Es gibt schließlich 3,4*10^38 verschiedene MD5 summen, das sind mindestens eine Trillion mehr als es sterne im Universum gibt :)
ErWundertSich 11.08.2015
3. Fuer und wieder
1. Ganz Toll das die damit diese Unmenschen dingfest machen !! 2. Superbedenklich, dass Microsoft einfach private Dateien scannt !! Heute sind es vielleicht Paedophile .. aber wer weis, wann sie morgen fuer einen Verbrecherstaat wie die EX-DDR die Leute damit systematisch ausspionieren ? Wer war wann wo mit wem ... Die Stasi haette wahrscheinlich einen Perma-Orgasmus bekommen bei den Moeglichkeiten ...
dajaly 12.08.2015
4. eventuell kontraproduktiv
führt das nicht auch zur vermehrten Produktion von Kinderpornos? jetzt wo alle Bilder in der Datenbank wegfallen, wird eine größere Menge von Bildern ohne hashtag benötigt. leider stirbt der Markt dafür nicht aus
felisconcolor 12.08.2015
5. Was nur
Zitat von seskyDas ist zwar korrekt, allerdings ist es astronomisch unwahrscheinlich dass zwei unterschiedliche bilder die nicht absichtlich manipuliert wurden den selben hashwert erzeugen. Es gibt schließlich 3,4*10^38 verschiedene MD5 summen, das sind mindestens eine Trillion mehr als es sterne im Universum gibt :)
bedingt richtig ist. Schliesslich ist die MD5 begrenzt durch die Anzahl der Pixel in einem Bild die nach einem wie auch immer gearteten Algoritmus berechnet werden. Und gerade bei kleinen Bildern steigt die Wahrscheinlichkeit das unterschiedliche Bildmotive trotzdem zum selben Hashwert führen. Was übrigens schon vorgekommen ist. Ärgerlich ist das wenn Urlaubsbilder aus der Cloud verschwinden. Unangenehm wird es wenn man von offizieller Seite Besuch bekommt. Und der Gau ist es wenn Name und Adresse des zu unrecht Verdächtigten durch Moralisten geleakt werden.
Alle Kommentare öffnen
Seite 1

© SPIEGEL ONLINE 2015
Alle Rechte vorbehalten
Vervielfältigung nur mit Genehmigung der SPIEGELnet GmbH


Die Homepage wurde aktualisiert. Jetzt aufrufen.
Hinweis nicht mehr anzeigen.