

Bildautomatik Twitters Foto-Algorithmus diskriminierte offenbar Schwarze

Liebe Leserin, lieber Leser,
das Netz kann ein wunderbarer Ort sein, um nerdige Fachdebatten einem größeren Publikum näherzubringen. So geschehen mal wieder in den vergangenen Tagen, als debattiert wurde, inwiefern Twitters Algorithmus für Bildbeschneidung Menschen mit dunkler Hautfarbe diskriminiert und wenn ja, an welchen technischen Details das liegen könnte.
Angefangen hatte die Debatte mit dem Doktoranden Colin Madlan, der eigentlich auf ein Problem von Zoom aufmerksam machen wollte: Der Dienst für Videokonferenzen hatte wiederholt den Kopf eines schwarzen Kollegen ausgeblendet , wenn der Mann einen von Zooms voreingestellten Bildhintergründen verwendete.
any guesses? pic.twitter.com/9aIZY4rSCX
— Colin Madland 🇺🇦🇮🇷 (@colinmadland) September 19, 2020
Als Madlan seinen Twitter-Followern davon berichten wollte und einen Screenshot aus einem Zoom-Call mit ihm und seinem Kollegen hochlud, stellte er fest, dass es womöglich auch auf Twitter ein Problem gibt. So schnitt Twitter die Vorschaubilder seiner Screenshots automatisch so zu , dass nur sein Gesicht und nicht das seines schwarzen Kollegen zu sehen war.
Eigentlich will Twitter mit dem automatischen Zuschnitt von Bildern dafür sorgen, dass in der Vorschauansicht ein möglichst relevanter oder aussagekräftiger Teil des Bildes gezeigt wird. Im Fall von Madlans Experiment, war der Zuschnitt aber nicht nur nicht aussagekräftig, sondern diskriminierte seinen schwarzen Kollegen.
Trying a horrible experiment...
— Tony "Abolish ICE" Arcieri 🦀🌹 (@bascule) September 19, 2020
Which will the Twitter algorithm pick: Mitch McConnell or Barack Obama? pic.twitter.com/bR1GRyCkia
Der Programmierer Tony Arcieri nahm Madlans Tweet zum Anlass für einen Test von Twitters Algorithmen: Er lud Bilddateien auf Twitter hoch, auf denen untereinander die US-Politiker Barack Obama und Mitch McConnell zu sehen sind. Auch hier war das Ergebnis eindeutig: Der Algorithmus, der das Vorschaubild erzeugt, zeigte nur McConnell an, blendete Obama aus.
Um eine Vorliebe für bestimmte Farben auszuschließen, glich Arcieri noch die Farbe der Krawatten an, die die beiden auf den Fotos trugen und wiederholte das Experiment. Erneut wählte der Algorithmus McConell für das Vorschaubild aus. Dass Twitters Algorithmus rote Krawatten bevorzugt, kann also nicht der Grund sein.
Twitter-Chefs kündigen weitere Schritte an
Wenig später meldeten sich mehrere hochrangige Twitter-Mitarbeiter zu Wort und bedankten sich für die Experimente. Neben einer Debatte darüber, ob Twitters Künstliche Intelligenz bestimmte Belichtungsverhältnisse und offene oder geschlossene Arme auf Fotos bevorzugt, schrieb Twitters Chief Digital Officer Dantley Davis: "Ich bin in einer Position, in der ich das Problem lösen kann, und das werde ich tun."
Warum allerdings der Algorithmus dunkelhäutige Menschen aus den Vorschaubildern herausgeschnitten hat, konnte Twitter bisher noch nicht beantworten. Vor der Einführung des Features hätte man bei eigenen Tests keinen systematischen Rassismus bemerkt, erklärte eine Sprecherin.
Auch wenn die Experimente von Arcieri und Madlan tausendfach geteilt und diskutiert wurden, muss klar sein: Ihre Beispiele haben nur anekdotische Evidenz und bieten keinen statistisch gesicherten Beleg für einen rassistischen Algorithmus. Gleichzeitig passen sie jedoch zu zahlreichen wissenschaftlichen Erkenntnissen darüber, wie Künstliche Intelligenz und Gesichtserkennung Menschen mit dunklen Hautfarben benachteiligen.
Im Fall von Twitters Bildbeschneidungsalgorithmus kam der Programmierer Vinary Prabhu bei einem vergleichbaren Test mit 92 Gesichtern allerdings zu dem Ergebnis, dass in Vorschaubildern häufiger schwarze Gesichter gezeigt würden.
In jedem Fall ist es sinnvoll, dass Twitter ankündigt hat, das Problem genauer untersuchen und den Algorithmus verbessern zu wollen. Denn auch wenn Wissenschaftler schon lange zur Diskriminierung durch Algorithmen forschen, so ist das Thema eben nicht nur etwas für die akademische Nische, sondern kann schwere persönliche und gesellschaftliche Ungerechtigkeiten zur Folge haben.
Seltsame Digitalwelt: TikTok erklären ist wie Witze erklären
Das zunehmend absurde Gerangel um die Video-App TikTok hat für mich als Techreporter gelegentlich auch private Konsequenzen. Seit die App zum Gegenstand in einem globalen Handelskrieg wurde, finde ich mich immer mal wieder im Verwandtenkreis oder mit weniger Internet-affinen Bekannten in einem Gespräch darüber, was dieses TikTok denn überhaupt sei und wie es funktioniere.
Das Gespräch läuft meist nach demselben Schema ab: Ich sage dann Sachen wie dass es irgendwann mal vor allem um Tanzvideos ging, in denen zum Beispiel die Worte "Baby Shark" sehr häufig vorkamen. Das erhöht den Erkenntnisgewinn bei meinem Gesprächspartner natürlich nicht wirklich und auch, wenn ich beginne, die Melodie des "Baby Shark"-Liedes vorzutragen, ändert das nichts.
Dann führe ich zum Beispiel aus, dass sich über die App immer wieder besonders kreative Videos und Aktionen entdecken lassen, dass sie für manche Communitys, zum Beispiel im Bereich LGTBQ, eine wichtige Plattform geworden ist oder dass ihre Ästhetik längst auch über die App hinaus kulturellen Einfluss hat. All das ist nicht unbedingt geneigt, das Verständnis für das, was auf TikTok passiert, bei älteren Bekannten zu erhöhen. Meist hole ich dann einfach mein Telefon raus, öffne die App und höre auf zu reden.
Fremdlinks: Drei Tipps aus anderen Medien
"WhatsApp & Co.: Forscher warnen vor massenhaftem Auslesen von Kontakten " (3 Minuten Lesezeit): Über sogenannte Crawling-Angriffe ist es Forscherinnen und Forschern der TU Darmstadt gelungen, Informationen über Nutzerinnen und Nutzer von Messenger-Apps wie WhatsApp, Signal oder Telegram auszuspionieren. Persönliche Nachrichten konnten nicht gelesen werden, dennoch zeigt die Studie, dass auch bei verschlüsselten Messengern bestimmte Account-Informationen anfällig sein können.
"Country of Liars " (53 Minuten Podcast, Englisch): Die Macher des Podcasts "Reply All" verstehen es gut, tief in abseitige Internetwelten abzutauchen und gleichzeitig die menschlichen Geschichten dahinter zu erzählen. In der aktuellen Folge gehen sie dem QAnon-Phänomen auf den Grund und versuchen herauszufinden, wer hinter dem inzwischen global einflussreichen Verschwörungsglauben stecken könnte.
"Paper maps, two-way radios: how firefighting tech is stuck in the past " (Englisch, 5 Minuten Lesezeit): Die Feuerwehr, die gegen die im Westen der USA wütenden Feuer kämpft, ist teilweise auf veraltete Technik angewiesen, obwohl im kalifornischen Silicon Valley einige der fortschrittlichsten Innovationen der letzten Jahre erfunden wurden. Einige Start-ups entwickeln nun Technologie, um die Feuerwehr besser auszustatten. Die verbrannten Wälder werden sich damit nicht zurückholen lassen.
Ich wünsche Ihnen eine gute Woche!
Max Hoppenstedt