»Eindeutig inakzeptabler Fehler« Facebook-Algorithmus verwechselt schwarze Menschen mit Affen

Der Social-Media-Riese hat Probleme mit der Künstlichen Intelligenz: Wer einen Clip über einen rassistischen Vorfall in den USA sah, bekam mehr »Videos über Primaten« vorgeschlagen. Facebook entschuldigt sich.
Facebook-Firmenlogo: »Immer wieder Fehler machen und bloß sagen, dass es ihnen leidtut«

Facebook-Firmenlogo: »Immer wieder Fehler machen und bloß sagen, dass es ihnen leidtut«

Foto: Jakub Porzycki / picture alliance / NurPhoto

Ein Algorithmus von Facebook hat schwarze Menschen mit Affen verwechselt. Eine Sprecherin des Unternehmens bestätigte am Freitag das Problem, das bei einem Video  des britischen Boulevard-Blatts »Daily Mail« aufgetreten war. Facebook-Nutzer, die sich das Video mit dem Titel »Weißer Mann ruft Polizei wegen schwarzen Männern am Hafen« angesehen hatten, wurden anschließend gefragt, ob sie »weiterhin Videos über Primaten sehen möchten«, wie die »New York Times« berichtete .

Screenshot des »Daily Mail«-Videos bei Facebook

Screenshot des »Daily Mail«-Videos bei Facebook

Foto: Daily Mail / Facebook

Die Sprecherin sprach von einem »eindeutig inakzeptablen Fehler«. Die verantwortliche Software sei sofort vom Netz genommen worden. »Wir entschuldigen uns bei jedem, der diese beleidigenden Empfehlungen gesehen hat«.

Facebook setzt auf verschiedene Formen von künstlicher Intelligenz, um die den Nutzern angezeigten Inhalte zu personalisieren. Dabei kommt auch Gesichtserkennungssoftware zum Einsatz. Bürgerrechtlern weisen jedoch schon länger auf Probleme mit der Genauigkeit hin. Künstliche Intelligenz kommt bei Facebook auch bei der Moderation von Inhalten zum Einsatz, etwa um problematische Nachrichten und Bilder zu erkennen und zu blockieren.

»Immer wieder Fehler«

Der aktuelle Fall war entdeckt worden, als eine frühere Facebook-Mitarbeiterin einen Screenshot in einem Produktfeedback-Forum postete. Ein Produktmanager der Videoabteilung des Unternehmens reagierte, bezeichnete den Vorfall als »inakzeptabel« und versprach, sich um die Wurzel des Problems zu kümmern.

Die ehemalige Mitarbeiterin sagte der »New York Times«, eine Reihe von Vorfällen zeige, dass der Umgang mit Rassismus-Problemen in der Firmenleitung keine Priorität habe: »Facebook kann nicht weiter immer wieder Fehler machen und bloß sagen, dass es ihnen leidtut«.

feb/AFP
Die Wiedergabe wurde unterbrochen.