Künstliche Intelligenz Twitters Algorithmus bevorzugt junge, schlanke Frauen

Neue Experimente zeigen, dass die KI des sozialen Netzwerks bei der automatischen Bildbeschneidung bestimmten Schönheitsidealen folgt. Für den Nachweis wurde der Entdecker mit einem Geldpreis belohnt.
Twitter-Logo auf einem Smartphone (Symbolbild): »Ausschluss von Minderheiten«

Twitter-Logo auf einem Smartphone (Symbolbild): »Ausschluss von Minderheiten«

Foto: OLIVIER DOULIERY/ AFP

Der Schweizer Doktorand Bogdan Kulynych hat eine Methode entwickelt, mit der sich nachweisen lässt, dass und in welcher Weise Twitters Bildbeschneidungsalgorithmen bestimmte Gesichtsmerkmale bevorzugen. Kulynych, der am Security and Privacy Engineering Lab der École polytechnique fédérale de Lausanne (EPFL) studiert, sicherte sich damit eine Geldprämie in Höhe von 3500 Dollar.

Kurz gefasst hat Kulynych festgestellt, dass Twitters Algorithmen beim Beschneiden von Vorschaubildern weiblich wirkende, junge Personen mit hellen, warmen Hauttönen und einem schlanken Gesicht bevorzugen.

Der ursprüngliche Auslöser für seine Experimente waren Berichte des Doktoranden Colin Madlan. Jener hatte bemerkt, dass der Algorithmus, mit dem Twitter Fotos automatisch zuschneidet, bei einem Foto von ihm mit einem schwarzen Kollegen sein weißhäutiges Gesicht ins Zentrum stellte. Der Teil des Bildes, der seinen Kollegen zeigte, wurde von der Software komplett abgeschnitten.

3500 Dollar für den Fehlerfinder

Weitere Experimente von anderen Twitter-Nutzerinnen und -Nutzern bestätigten: Der Algorithmus zeigt rassistische Tendenzen. Allerdings nicht immer auf die gleiche Weise, denn in einem anderen Experiment bevorzugte er schwarze Gesichter. Twitter kündigte an, das Problem genauer untersuchen und den Algorithmus verbessern zu wollen. Wenig später schaltete das Unternehmen die Bildbeschneidungs-Automatik ab.

Damit nicht genug, es versprach auch eine Belohnung von 3500 Dollar  für diejenigen, die neue Wege finden, nachzuweisen, wie Twitters künstliche Intelligenz unabsichtlich bestimmte Personengruppen benachteiligt. Auf der IT-Sicherheitskonferenz DEF CON in Las Vegas wurde dieser Preis nun an Kulynych vergeben.

Der Ursprung des Problems sind Vorurteile der Entwickler

Die Erkenntnisse der Forscher würden zeigen, wie die Voreingenommenheit der Menschen, welche die Daten ausgewählt hatten, anhand derer der Algorithmus trainiert wurde, dessen Ergebnisse beeinflusst, sagte die KI-Expertin Ariel Herbert-Voss , die als Jurymitglied an der Preisvergabe beteiligt war. Sie hoffe, dass »mehr Unternehmen, die auf Algorithmen basierende Produkte entwickeln, den Wert des Produktfeedbacks auf diese Weise erkennen und auf diesem Ansatz aufbauen«, schrieb sie auf Twitter .

Bogdan Kulynych selbst schreibt in seiner Veröffentlichung: Die Voreingenommenheit der Algorithmen »könnte zum Ausschluss von Minderheiten und zur Aufrechterhaltung stereotyper Schönheitsstandards in Tausenden von Bildern führen«.

Empfohlener externer Inhalt
An dieser Stelle finden Sie einen externen Inhalt von Twitter, der den Artikel ergänzt und von der Redaktion empfohlen wird. Sie können ihn sich mit einem Klick anzeigen lassen und wieder ausblenden.
Externer Inhalt

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Twitters ungewöhnlichen Wettbewerb lobte er als etwas Nachahmenswertes. Wenn solche Wettbewerbe ähnlich regelmäßig veranstaltet würden wie jene, bei denen Experten nach Sicherheitslücken suchen, würde »Software nicht mehr jahrelang herumliegen, bis endlich Beweise für den Schaden, den sie anrichtet, vorliegen.«

mak
Die Wiedergabe wurde unterbrochen.