Online-Schönheitswettbewerb Der Algorithmus ist Rassist

Bei einem Online-Schönheitswettbewerb hat ein Algorithmus die Gewinner gekürt - und fast nur Weiße ausgewählt. Warum ist künstliche Intelligenz rassistisch?
Schönheitswettbewerb

Schönheitswettbewerb

Foto: Facundo Arrizabalaga/ picture alliance / dpa

Wenn ein Mensch bewertet, ob ein anderer schön ist oder nicht, dann hat das viel mit persönlicher Wahrnehmung zu tun. Ein Algorithmus, der menschliche Gesichter nach bestimmten Kriterien auswertet - zum Beispiel Symmetrie des Gesichts oder Vorkommen von Falten - wäre viel objektiver.

So lautete zumindest die Annahme eines Teams aus Forschern, das den Schönheitswettbewerb "Beauty.AI"  ausrichtete, bei dem die Teilnehmer von einer künstlichen Intelligenz (KI) bewertet wurden. Etwa 6000 Menschen aus mehr als 100 Ländern nahmen nach Angaben des "Guardian"  an dem Experiment teil und stellten Fotos zur Verfügung.

Das Ergebnis des Wettbewerbs ist bemerkenswert: Anscheinend bewertete der Algorithmus Menschen mit heller Haut als schöner. Unter den 44 Gewinnern gab es jedenfalls keine einzige Person mit dunklerer Haut, obwohl sich zum Beispiel auch Afrikaner und Inder bei dem Wettbewerb angemeldet hatten.

Die KI leistet sich nicht das erste Mal eine Schlappe

Das seltsam eindeutige Ergebnis dürfte einmal mehr die Diskussion um den Einsatz von künstlicher Intelligenz befeuern. In der nahen Vergangenheit waren auch andere Experimente unglücklich ausgegangen: So schimpfte der Microsoft-Chatbot Tay auf Twitter mit rassistischen Parolen und Neonazi-Sprech. Microsoft war - neben anderen - auch jetzt an dem Schönheitsexperiment beteiligt.

Das Problem an lernfähiger KI ist, dass sie nur so intelligent ist oder wird, wie es die Menschen zulassen, die sie programmieren und sie trainieren lassen. Tay lernte von anderen Twitterern die rassistische Sprache.

Der Schönheitsalgorithmus funktionierte nun so, wie er funktionierte, weil er hauptsächlich von weißen Menschen gemacht wurde. Gegenüber dem "Guardian" gab ein führender wissenschaftlicher Mitarbeiter von Beauty.AI zu, bei der Entwicklung der Schönheitsstandards seien zu wenig Minderheiten miteinbezogen worden.

Das Problem: fehlende Diversität

Dass in vielen großen Tech-Konzernen vor allem Weiße arbeiten, wird schon lange kritisiert. Denn das hat auch Auswirkungen darauf, wie Produkte und Software-Lösungen gestaltet werden. So kam es beispielsweise mehrfach vor, dass der Video-Messenger Snapchat wegen rassistischen Gesichtsfiltern in die Schlagzeilen geriet.

Die fehlende Diversität in Tech-Firmen, die sich ihren Produkten, einschließlich der KI zeigt, könnte in Zukunft zu einem noch viel größeren Problem werden - beispielsweise wenn Algorithmen zur Kriminalitätsprävention eingesetzt werden. In den USA ist das schon heute gängige Praxis: Algorithmen entwerfen einen "Risiko-Score", der die Wahrscheinlichkeit, dass der Betroffene erneut straffällig wird, beziffern soll. Schwarze wurden in diesem Zusammenhang deutlich häufiger fälschlich als Risikofälle eingestuft, ergab eine Studie von ProPublica .

tsi
Mehr lesen über Verwandte Artikel