Künstliche Intelligenz und Rassismus Microsofts KI verwechselt Musikerinnen

Eine Software soll die menschlichen Redakteure des Microsoft-Portals MSN.com ersetzen. Nun hat sie einen peinlichen Fehler produziert - und Microsoft macht alles noch schlimmer.
Die vier Bandmitglieder von Little Mix: Auf der rechten Seite sind Jade Thirlwall und Leigh-Anne Pinnock zu sehen

Die vier Bandmitglieder von Little Mix: Auf der rechten Seite sind Jade Thirlwall und Leigh-Anne Pinnock zu sehen

Foto:

Gareth Cattermole/ Getty Images

Nicht zum ersten Mal blamiert eine künstliche Intelligenz Microsoft. 2016 war es der Chatbot Tay, der sich binnen Stunden in eine Rassismus-Maschine verwandelte, weil seine Entwickler in erstaunlicher Naivität geglaubt hatten, Twitter-Nutzer würden Tay anständig trainieren. Nun hat ein Algorithmus das Microsoft-Nachrichtenportal MSN.com bloßgestellt - und der Konzern macht alles nur noch schlimmer.

MSN.com versammelt aktuelle Medienberichte aus verschiedenen Quellen, unter anderem auch aus dem SPIEGEL und dem "Guardian". Lange Zeit waren menschliche Redakteure für die Themenauswahl und -aufbereitung zuständig. Doch insgesamt 77 von ihnen müssen Ende des Monats gehen. Künftig wird eine Software - manche sagen: ein Roboter oder eine künstliche Intelligenz (KI) - ihre Aufgabe übernehmen. Derzeit läuft eine Art Übergangsphase, und zwar nicht sonderlich gut.

Die Software veröffentlichte einen Bericht des "Independent"  über eine Sängerin der Popgruppe Little Mix auf MSN.com. Die Frau heißt Jade Thirlwall, ihre Großeltern mütterlicherseits stammen aus dem Jemen und Ägypten. In dem Bericht ging es um Thirlwalls Erfahrungen mit Rassismus. Die Software allerdings illustrierte den Artikel mit einem Foto, das Thirlwalls ebenfalls nicht weiße Bandkollegin Leigh-Anne Pinnock zeigt. Die Sängerin kritisierte Microsoft über ihren Instagram-Account scharf für die Verwechslung: "Es beleidigt mich, dass ihr in einer Gruppe mit vier Mitgliedern die zwei women of color nicht auseinanderhalten könnt. WERDET BESSER!"

Redakteure sollten Presseberichte über den Fall entfernen

Der "Guardian" fragte  Microsoft daraufhin, warum das Unternehmen eine Software verwende, die nicht weiße Menschen nicht unterscheiden kann, ob eine solche rassistische Einseitigkeit auch in Microsofts KI-Software, die von anderen Unternehmen genutzt wird, zutage treten könnte, und ob Microsoft die Entscheidung, Redakteure durch Roboter zu ersetzen, noch einmal überdenkt. Die Antwort eines Firmensprechers: "Sobald wir auf das Problem aufmerksam wurden, haben wir gehandelt und das falsche Bild ersetzt".

Doch damit war der Vorfall nicht erledigt. Nach Angaben des "Guardian" wurden die Redakteure von MSN.com gewarnt, dass es negative Artikel über eben jene Software geben werde, die ihren Job übernehmen soll – den Artikel im "Guardian" eben. Sollte der Algorithmus diesen Artikel als interessant für die MSN-Leser identifizieren und automatisch auf die Website stellen, könnten die Redakteure das zwar nicht verhindern, aber zumindest sollten sie ihn dann wieder entfernen, lautete die Anweisung. Sie seien außerdem gewarnt worden, dass die Software versuchen könnte, einen solchen Eingriff rückgängig zu machen und den Artikel erneut zu veröffentlichen. Auf Anfrage des SPIEGEL teilte ein Sprecher mit, Microsoft wolle den "Guardian"-Bericht nicht kommentieren.

"Streisand-Effekt" heißt es, wenn man versucht, negative Berichterstattung zu unterbinden und genau dadurch noch mehr negative Berichterstattung auslöst. Microsofts KI kann vielleicht keine nicht weißen Menschen auseinanderhalten. Aber immerhin kann sie helfen, den Streisand-Effekt zu automatisieren.

Die Wiedergabe wurde unterbrochen.