Überwachungstechnik Haben Ihre Flickr-Fotos eine Gesichtserkennung trainiert?

Eine neue Rückwärtssuche ermöglicht brisante Recherchen: Es lässt sich prüfen, ob Flickr-Fotos in Datenbanken gelandet sind, die von Rüstungskonzernen oder chinesischen Überwachungsfirmen genutzt wurden.
»Nicht so fortgeschritten, wie man es ihr zuschreibt«: Gesichtserkennungstechnik

»Nicht so fortgeschritten, wie man es ihr zuschreibt«: Gesichtserkennungstechnik

Foto: David Malan / Getty Images

Adam Harvey bekämpft Gesichtserkennungstechnik schon seit Jahren. 2014 etwa präsentierte der in Berlin lebende US-Künstler eine Sammlung von Frisuren- und Make-up-Tipps , die Gesichtserkennungssoftware verwirren sollten. 2019 enthüllte er, dass eine von Microsoft angelegte und anderen zur Verfügung gestellte Datenbank mit Porträts von rund 100.000 Menschen auch von chinesischen Unternehmen genutzt wurde, die Behörden in der Provinz Xinjiang beliefern, wo die muslimische Minderheit der Uiguren engmaschig überwacht wird. MegaPixels hieß Harveys damaliges Projekt, jetzt gibt es einen Nachfolger namens Exposing.ai .

Auf der dazugehörigen Website kann man prüfen, ob man selbst unwissentlich Teil einer Datenbank geworden ist, mit der möglicherweise Gesichtserkennungssoftware trainiert wird. Der Abgleich findet gegen sechs solcher Datenbanken statt, die zu Forschungszwecken, aber auch zu kommerziellen oder militärischen Zwecken verwendet werden. Sie haben Namen wie DiveFace, IJB-C oder VGG Face.

Harvey und sein Mitstreiter Jules LaPlace sowie das Surveillance Technology Oversight Project  aus New York haben anhand von Studien aus aller Welt, in denen die Namen der Datenbanken auftauchen, herausgefunden, wozu sie schon verwendet wurden. Nach Recherchen der »New York Times«  wurde eine der sechs Datenbanken – sie heißt MegaFace – sogar mehr als 6000 Mal genutzt, unter anderem vom Rüstungskonzern Northrop Grumman, von In-Q-Tel, also der Wagniskapitalabteilung der CIA, von der TikTok-Mutter ByteDance aus China und von Megvii, ebenfalls aus China und spezialisiert auf Überwachungstechnik.

Eine wichtige Einschränkung allerdings hat Exposing.ai: Die Suche nach Fotos ist derzeit beschränkt auf solche, die auf Flickr veröffentlicht wurden und dort noch auffindbar sind.

Fotos aus YouTube-Videos sollen folgen

Der Fotodienst, dessen Besitzer in den vergangenen Jahren mehrfach wechselten, erlaubt es Nutzerinnen und Nutzern, ihre Fotos mit einer Creative-Commons-Lizenz zur weiteren Verwendung freizugeben. Das haben sich Forscher gern zunutze gemacht, um Gesichtsfotos herunterzuladen, ohne die Urheber um Erlaubnis bitten zu müssen (auch wenn die Lizenzen oft mit gewissen Einschränkungen verbunden sind, die manche Forscher wiederum ignoriert haben dürften). Flickr ist damit zu einer wichtigen Ressource für Trainingsdatenbanken geworden. Mit solchen Datenbanken wiederum werden Machine-Learning-Modelle darauf trainiert, Gesichter zu klassifizieren.

Wer Exposing.ai nutzen will, muss einen Link auf ein Flickr-Foto oder dessen ID, einen Nutzernamen oder ein Hashtag eingeben. »Das sind die Metadaten, die mit jedem Foto verbunden sind«, schreibt Harvey dem SPIEGEL in einem Signal-Chat. »Die sind entweder teilweise oder vollständig in jedem der sechs Datensätze enthalten. Wo etwas fehlte, habe ich die Daten mithilfe der Detailinformationen aus anderen Datenbanken ergänzt, bis die meisten Fotos anhand ihrer Metadaten indizierbar waren.«

Tauchen derart per Texteingabe gesuchte Fotos in einer der sechs indizierten Datenbanken auf, bekommt man sie auf Exposing.ai angezeigt. Sie werden direkt geladen von Flickr und nicht auf Exposing.ai gespeichert, denn das Projekt selbst soll keine Gesichtsdatenbank sein.

Als Nächstes will Harvey auch Gesichter aus YouTube-Videos, die in Trainingsdatenbanken gelandet sind, indizieren.

Die Ironie der Geschichte: Harvey wollte zunächst selbst Gesichtserkennung einsetzen. Nutzerinnen und Nutzer sollten ein Foto von sich hochladen können, und die Software würde dann in den indizierten Datenbanken nach dem Gesicht suchen. Doch zum einen wollte er »nicht noch eine problematische Anwendung erschaffen«, sagt er. Sie hätte sich unter anderem von Stalkern missbrauchen lassen. Der andere Grund, warum er von dem Plan abgekommen ist: »Es hat nicht so gut funktioniert, wie man denken könnte. Gesichtserkennung ist nicht so fortgeschritten, wie man es ihr zuschreibt.«

Die Wiedergabe wurde unterbrochen.