Gesichtserkennung Wie der Rassismus in die Software kommt

Die Proteste gegen Rassismus haben den Streit über Gesichtserkennung neu entfacht. IBM, Amazon und Microsoft haben bereits reagiert. Aber einige Forscher wollen nicht auf die Vorteile der Technik verzichten.
Überwachungskamera in San Francisco - hier wurde automatische Gesichtserkennung bereits verboten

Überwachungskamera in San Francisco - hier wurde automatische Gesichtserkennung bereits verboten

Foto:

Justin Sullivan/ Getty Images

Das Geschäft mit der Gesichtserkennung wird den großen Tech-Konzernen offenbar unangenehm. IBM hatte sich vor ein paar Tagen komplett aus dem Wettbewerb ausgeklinkt. Kurz darauf kündigte Amazon an, zumindest der Polizei in den USA den Zugriff auf die Gesichtserkennungsserver ein Jahr lang zu sperren. Nun zog Microsoft nach. Dort will man die Software der US-Polizei gar nicht erst anbieten .

Auslöser für den Kurswechsel sind die weltweiten Proteste gegen Rassismus und Polizeigewalt nach dem Tod von George Floyd . Es ist ein alter Streit über die auf künstlicher Intelligenz (KI) basierende Technologie, der neu aufflammt. Denn auch nach jahrelanger Entwicklung hat Gesichtserkennungssoftware noch immer ein Rassismusproblem.

Das hatte Microsoft erst vor einigen Tagen zu spüren bekommen, als die Software des Unternehmens auf der Website "MSN.com" zwei nicht-weiße Sängerinnen der Band Little Mix auf einem Foto verwechselte und dafür scharf kritisiert wurde. Doch solche Fehler passieren eben längst nicht nur auf Websites.

Fehlerrate bei schwarzen und asiatisch aussehenden Menschen bis zu hundertmal höher

Der Einsatz von rassistisch verzerrter Software ist dann besonders heikel, wenn es um Grenzkontrollen und Strafverfolgung geht. Denn Gesichtserkennung wird in den USA und auch in Deutschland eingesetzt, um nach Kriminellen zu fahnden. Das kann für Unschuldige zum Risiko werden, wenn sie zu Unrecht als Verdächtige eingestuft werden. Das Problem: Solche Fehler beim Bildabgleich passieren meist bei Schwarzen und bei asiatisch aussehenden Menschen.

Das zeigt unter anderem eine im Dezember veröffentlichte Studie (Pdf)  des Nationalen Instituts für Standards und Technologie. Demnach ist die Gesichtserkennungsfehlerrate bei diesen ethnischen Gruppen bis zu einhundertmal höher als bei Weißen. Die Forscher hatten insgesamt 189 Gesichtserkennungsprogramme von 99 Entwicklern untersucht. Nicht getestet wurde die Amazon-Software Rekognition. Doch die Probleme treten auch hier auf: Die US-Bürgerrechtsorganisation ACLU hatte vor zwei Jahren darauf hingewiesen, dass die Amazon-Software selbst schwarze US-Politiker fälschlicherweise als Verbrecher entlarvt.

Judith Simon von der Universität Hamburg fordert daher ein Verbot der Technologie. "Gesichtserkennung ist nicht tragbar", sagt die Professorin für Ethik in der IT im Gespräch mit dem SPIEGEL. Ein Problem sei, dass die Erkennung nicht ausreichend präzise funktioniere und es bei bestimmten Personengruppen zu möglicher Diskriminierung komme. "Damit hören die Probleme aber noch nicht auf", sagt Judith Simon. Die Gesichtserkennung berge auch die Gefahren, dass Menschen überwacht werden und die Privatsphäre verletzt werde.

Allerdings macht sich die Forscherin keine großen Hoffnungen. "Der Weg zu einem wirklichen Verbot ist sehr weit und mehr als ungewiss, auch wenn mich die Entscheidungen von IBM und Amazon zunächst einmal freuen." Ein endgültiges Ende der Gesichtserkennung sei unwahrscheinlich, da die Technologie auch in Zukunft bereitstehe, selbst wenn es zu einem Ausstieg aller Tech-Unternehmen komme: Viele der heutigen Modelle seien schließlich öffentlich zugänglich.

"Künstliche Intelligenz an sich ist nicht rassistisch"

Doch die EU schreckt vor einem generellen Verbot zurück - und auch Wissenschaftler sind sich bei der Frage nach dem richtigen Umgang mit der Technologie nicht einig. Erhardt Barth von der Universität zu Lübeck etwa hält nichts davon, die Forschung komplett einzustellen. Der Professor für Bioinformatik sagt im Gespräch mit dem SPIEGEL: "Ein Verbot der Gesichtserkennung würde auch die positiven Möglichkeiten verhindern." Er selbst hat mit seinem Team eine Software entwickelt, die Fotografen hilft, Bilder mit KI schneller zu erkennen und zu sortieren. Bei solcher Software für den Privatgebrauch sehe Barth keine Probleme.

Der Wissenschaftler macht für tendenziöse Ergebnisse von Bilderkennungssoftware vor allem die Daten verantwortlich, mit denen die Software gefüttert wird. "Künstliche Intelligenz an sich ist nicht rassistisch", sagt Barth. Seiner Meinung entstehe ein verzerrtes Ergebnis vor allem deshalb, weil die betroffene KI mit Bilddatenbanken trainiert werde, in denen eine Bevölkerungsgruppe stärker vertreten sei. Das sei wie bei Menschen auch: "Wenn man in Europa aufgewachsen ist, dann kann man Gesichter von Menschen aus europäischen Ländern besser auseinanderhalten", sagt der Informatikprofessor.

Aber die Technologie könne natürlich auch missbraucht werden, davon ist Erhardt Barth überzeugt. Anstelle eines generellen Verbots empfiehlt er, dass man den Forschern die Verantwortung für ihre Arbeit selbst überlasse. "Als Wissenschaftler muss man sich Gedanken machen, wofür man das einsetzt."