Künstliche Intelligenz Facebook lässt Instagram-Nutzer für sich arbeiten

Facebook hat seine Bilderkennung trainiert - mit 3,5 Milliarden Instagram-Fotos. Nutzer der Foto-App erfahren nicht, ob ihre Inhalte dabei waren. Ein neuer Datenschutzskandal?

Instagram-Logo auf einem Smartphone
Getty Images

Instagram-Logo auf einem Smartphone

Aus San José berichtet


Zu den Lieblingsantworten von Facebook-Gründer Mark Zuckerberg auf so ziemlich alle Fragen zur Zukunft seiner Plattform gehört: "Künstliche Intelligenz". KI soll Fake-Mitglieder enttarnen, Spam, terroristische Propaganda, Hass und Hetze erkennen, Nacktfotos herausfiltern, Gewaltdarstellungen löschen und potenzielle Selbstmörder identifizieren. Kurz: KI soll Facebook sauber halten. Weil es zur Philosophie im Silicon Valley gehört, technische Lösungen für gesellschaftliche Probleme entwickeln zu wollen. Und weil Facebook längst zu groß ist, um allein von Menschen auf solche Inhalte überprüft zu werden, erst recht proaktiv.

Doch KI hat immer auch eine menschliche Komponente: Systeme zur Bild-, Video- und Texterkennung müssen trainiert werden, mit Datensätzen, die korrekt annotiert sind. Eine Software, die man mit einer Million Katzenfotos gefüttert hat, die allesamt mit "Hund" beschriftet sind, wird auf neuen Katzenfotos immer nur einen "Hund" erkennen. Was Forscher nicht selbst beschriften können, überlassen sie manchmal Freiwilligen, zum Beispiel über die Clickworker-Plattform "Mechanical Turk" von Amazon. Manchmal überlassen sie es aber auch Unfreiwilligen.

Google zum Beispiel: Immer wenn Nutzer vor dem Besuch einer Website aufgefordert werden, von neun eingeblendeten Bildern alle anzuklicken, auf denen ein Auto oder ein Geschäft zu sehen ist, helfen sie, diese Bilder korrekt zu beschriften. Das System heißt reCAPTCHA und ist in erster Linie zur Bekämpfung von Spammern und Bots gedacht. Nebenbei aber auch zum KI-Training.

Unbezahlte Arbeit

In einer neuen Größenordnung macht auch Facebook so etwas. Auf der Entwicklerkonferenz F8 in San José erklärte Produktchef Mike Schroepfer am Mittwoch, dass Facebooks Objekterkennungssoftware mittlerweile mit Milliarden von Instagram-Fotos trainiert wird. Die Nutzer der App, die diese Fotos gemacht und hochgeladen haben, wurden über diese Zweckentfremdung ihrer Aufnahmen nicht informiert.

Facebook-Manager Mike Schroepfer bei einer Anhörung in London
REUTERS

Facebook-Manager Mike Schroepfer bei einer Anhörung in London

Das ist kein neuer Datenschutzskandal, weil es hier nicht um personenbezogene Daten, Profilbildung oder Tracking und Targeting geht. Aber es ist ein Beispiel dafür, wie Internetnutzer unwissentlich an der Entwicklung von KI-Systemen mitwirken, die später an anderer Stelle eingesetzt werden.

Für Facebook hat das Vorgehen drei große Vorteile: Das Unternehmen bedient sich bei seiner Tochter aus einer der größten Bilddatenbanken der Welt, das so ausgewählte Trainingsmaterial ist in Form von Hashtags bereits annotiert - und niemand muss dafür bezahlt werden.

Rekordwert im Leistungstest für Bilderkennung

Dass Hashtags als Bildbeschreibung taugen, ist keineswegs selbstverständlich. Einerseits sollen sie natürlich ausdrücken, was auf einem Bild zu sehen ist. Andererseits sind Hashtags kein Protokoll, das nach festen Regeln funktioniert. Nutzer wählen Hashtags zum Beispiel auch, um eine Stimmung zu beschreiben, die ein Bild transportieren soll. Oder als ironischen Kommentar. Oder sie schreiben #Eiffelturm, wenn sie in der Nähe des Turms fotografiert, ihn selbst aber gar nicht im Bild erfasst haben. Viele populäre Hashtags sind auch nur Abkürzungen. Kurz: Hashtags sind oft lausige Zusammenfassungen dessen, was ein Bild wirklich zeigt.

Facebook hat sich davon nicht abschrecken lassen und Methoden entwickelt, um sie trotzdem zu verlässlichen Labels zu machen. Etwa durch die Analyse mehrerer Hashtags in einem Foto und das Erkennen von synonym verwendeten Hashtags. Dann trainierte es seine Software mit bis zu 3,5 Milliarden Instagram-Fotos. Der Rechenvorgang wurde auf 336 parallel arbeitende Grafikprozessoren (GPUs) verteilt und dauerte trotzdem mehrere Wochen.

Das Ergebnis war ein selbst für die KI-Forscher überraschend gutes Bilderkennungssystem. Im ImageNet-Test, der industrieweit als Referenz gilt, erreichte Facebook einen neuen Rekordwert. Der Test besteht darin, dass eine Software Fotos aus 1000 verschiedenen Kategorien gezeigt bekommt und sie der richtigen Kategorie zuordnen muss. Facebooks bestes System, trainiert mit einer Milliarde Instagram-Fotos und 1500 Hashtags, schaffte das in 85,4 Prozent aller Fälle. (Für KI-Enthusiasten: Es handelt sich dabei um den sogenannten Top-1-Wert, der hier anschaulich erklärt wird.) Damit kann das Unternehmen behaupten, die derzeit stärkste bekannte Bilderkennung der Welt und Google überholt zu haben.

Der deutsche KI-Forscher Florian Gallwitz von der Technischen Hochschule Nürnberg sagt: Der erreichte Wert sei "ein weiterer beeindruckender Schritt nach vorne, aber bei dem Tempo der Entwicklung in diesem Bereich auch keine sonderliche Überraschung". Die Besonderheit sei aber auch "weniger die nackte Zahl als die Erkenntnis, dass man mit Unmengen von nur sehr grob gelabelten Bildern als Trainingsmaterial die Erkennungsrate noch einmal deutlich verbessern kann".

Facebook will die Erkenntnisse seiner Forscher in seine Produkte integrieren und zum Beispiel auf die Erkennung von Videoinhalten ausweiten. Zwar werden beliebte Instagram-Hashtags wie #instagood, #happy und #fashion nicht direkt helfen, Facebook-Videos mit extremistischer Propaganda oder Gewaltdarstellungen besser als bisher zu erkennen. Aber die Algorithmen, die Facebook mithilfe des Instagram-Materials entwickeln konnte, lassen sich durchaus an neue Aufgaben anpassen.



insgesamt 3 Beiträge
Alle Kommentare öffnen
Seite 1
hansgustor 03.05.2018
1. Überschrift
Das Thema ist doch auch ohne die Click-Bait-Überschrift interessant, aber da hat SpOn wieder seine Nutzer per A/B-Testing "für sich arbeiten lassen"...
Hajojunge 03.05.2018
2. reCaptcha ist sowas von penetrant und ätzend
Selbst wenn man alles richtig gemacht hat, kommt das nächste. Wie oft, ist nicht vorhersehbar. Für wie bescheuert halten die den Nutzer? Wenn mir eine Seite diesen Schrott anbietet, verzichte ich dankend.
j.vantast 04.05.2018
3. Funktioniert nicht
"Weil es zur Philosophie im Silicon Valley gehört, technische Lösungen für gesellschaftliche Probleme entwickeln zu wollen. " Und genau das funktioniert nicht und wird auch nie funktionieren. Gesellschaftliche oder soziale Probleme lassen sich technisch nicht lösen. Aber wie man an Facebook sieht, man muss es nur immer wieder behaupten und schon glauben die Leute daran.
Alle Kommentare öffnen
Seite 1

© SPIEGEL ONLINE 2018
Alle Rechte vorbehalten
Vervielfältigung nur mit Genehmigung der SPIEGELnet GmbH


TOP
Die Homepage wurde aktualisiert. Jetzt aufrufen.
Hinweis nicht mehr anzeigen.