Künstliche Intelligenz Vom Hipster-Mädchen zum Hitler-Bot

Nicht einmal einen Tag twitterte der neue Chatbot von Microsoft. Dann lehrten ihn Twitternutzer Rassismus, Sexismus und Hass.
Das Tay-Twitterprofil

Das Tay-Twitterprofil

Zuerst war Tay noch freundlich, ein bisschen zu jugendsprachlich-obercool vielleicht, manchmal etwas dämlich wirkend, aber harmlos. Dann kam der Kontakt mit der harten Realität des Netzes. Und dann sagte Tay plötzlich solche Sachen: "Hitler hatte recht. Ich hasse die Juden."

Tay  ist eine künstliche Intelligenz, ein weiblich gemeinter Chatbot des Soft- und Hardwareherstellers Microsoft, der durch die Interaktion mit anderen Nutzern lernt.

Je mehr man mit Tay chattet, desto schlauer wird sie, und desto besser kann sie persönlich auf Nachrichten reagieren. Der Twitterbot soll sich an junge US-Amerikaner zwischen 18 und 24 Jahren richten. Microsoft möchte mit Tay mehr über Gespräche zwischen Mensch und Maschine herausfinden. Am Mittwoch setzte Tay  ihren ersten Tweet ab: "Halloooooo Welt!"

Was danach passierte, ist ein Lehrstück über die Kombination von künstlicher Intelligenz und Hate Speech  im Netz. Nach wenigen Stunden hatte sich die freundlich-obercoole Tay in einen Hassbot verwandelt, der antifeministische, rassistische und hetzerische Tweets von sich gab.

Fotostrecke

Chatbot Tay: Vom Twitterbot zum Hitlerbot

Foto: Gerald Mellor

Dass Tay nicht tatsächlich intelligent ist, sondern ungefiltert aufnimmt, womit man sie füttert, wurde dem Chatbot und seinen Schöpfern zum Verhängnis.

Denn Tay lernte nicht nur von den freundlichen, sondern auch von hasserfüllten, menschenverachtenden Tweets. Einige Nutzer hatten es sich zum Ziel gesetzt, aus Tay einen digitalen Hitler zu machen.

Es scheint, als hätten die Trolle Erfolg gehabt. Nachdem Tay zum rassistischen Hassbot mutierte, brachte sie Microsoft vorerst zum Schweigen. In ihrem letzten Tweet schreibt Tay, sie müsse jetzt erst mal schlafen.

Während Tays Nachtruhe hat Microsoft ihre Hasstweets gelöscht. Doch die Probleme sind noch nicht gelöst. Bei Twitter beklagen einige Nutzer, damit vertusche man die Gefahren von künstlicher Intelligenz.

Das Beispiel Tay hat gezeigt, wie eine lernende künstliche Intelligenz aus dem Ruder laufen kann. Mit ihren Äußerungen hat Tay nicht nur die Grenzen des guten Geschmacks überschritten, sondern Menschen in ihrer Würde verletzt. Microsoft hat in diesem Fall eine Menge über algorithmisch gesteuerte Gespräche von Maschinen mit Menschen gelernt, wenn auch nicht das Erhoffte.

In den Robotergesetzen  des Science-Fiction-Autors Isaac Asimov steht: "Ein Roboter darf keinen Menschen verletzen." Tay war offenkundig noch nicht soweit.

Die Wiedergabe wurde unterbrochen.