Die Homepage wurde aktualisiert. Jetzt aufrufen.
Hinweis nicht mehr anzeigen.

Künstliche Intelligenz: Vom Hipster-Mädchen zum Hitler-Bot

Von

Das Tay-Twitterprofil Zur Großansicht

Das Tay-Twitterprofil

Nicht einmal einen Tag twitterte der neue Chatbot von Microsoft. Dann lehrten ihn Twitternutzer Rassismus, Sexismus und Hass.

Zuerst war Tay noch freundlich, ein bisschen zu jugendsprachlich-obercool vielleicht, manchmal etwas dämlich wirkend, aber harmlos. Dann kam der Kontakt mit der harten Realität des Netzes. Und dann sagte Tay plötzlich solche Sachen: "Hitler hatte recht. Ich hasse die Juden."

Tay ist eine künstliche Intelligenz, ein weiblich gemeinter Chatbot des Soft- und Hardwareherstellers Microsoft, der durch die Interaktion mit anderen Nutzern lernt.

Je mehr man mit Tay chattet, desto schlauer wird sie, und desto besser kann sie persönlich auf Nachrichten reagieren. Der Twitterbot soll sich an junge US-Amerikaner zwischen 18 und 24 Jahren richten. Microsoft möchte mit Tay mehr über Gespräche zwischen Mensch und Maschine herausfinden. Am Mittwoch setzte Tay ihren ersten Tweet ab: "Halloooooo Welt!"

Was danach passierte, ist ein Lehrstück über die Kombination von künstlicher Intelligenz und Hate Speech im Netz. Nach wenigen Stunden hatte sich die freundlich-obercoole Tay in einen Hassbot verwandelt, der antifeministische, rassistische und hetzerische Tweets von sich gab.

Dass Tay nicht tatsächlich intelligent ist, sondern ungefiltert aufnimmt, womit man sie füttert, wurde dem Chatbot und seinen Schöpfern zum Verhängnis.

Denn Tay lernte nicht nur von den freundlichen, sondern auch von hasserfüllten, menschenverachtenden Tweets. Einige Nutzer hatten es sich zum Ziel gesetzt, aus Tay einen digitalen Hitler zu machen.

Es scheint, als hätten die Trolle Erfolg gehabt. Nachdem Tay zum rassistischen Hassbot mutierte, brachte sie Microsoft vorerst zum Schweigen. In ihrem letzten Tweet schreibt Tay, sie müsse jetzt erst mal schlafen.

Während Tays Nachtruhe hat Microsoft ihre Hasstweets gelöscht. Doch die Probleme sind noch nicht gelöst. Bei Twitter beklagen einige Nutzer, damit vertusche man die Gefahren von künstlicher Intelligenz.

Das Beispiel Tay hat gezeigt, wie eine lernende künstliche Intelligenz aus dem Ruder laufen kann. Mit ihren Äußerungen hat Tay nicht nur die Grenzen des guten Geschmacks überschritten, sondern Menschen in ihrer Würde verletzt. Microsoft hat in diesem Fall eine Menge über algorithmisch gesteuerte Gespräche von Maschinen mit Menschen gelernt, wenn auch nicht das Erhoffte.

In den Robotergesetzen des Science-Fiction-Autors Isaac Asimov steht: "Ein Roboter darf keinen Menschen verletzen." Tay war offenkundig noch nicht soweit.

Diesen Artikel...
Forum - Diskutieren Sie über diesen Artikel
insgesamt 79 Beiträge
Alle Kommentare öffnen
    Seite 1    
1.
Vorlan 24.03.2016
"In den Robotergesetzen des Science-Fiction-Autors Isaac Asimov steht "Ein Roboter darf keinen Menschen verletzen." Tay war offenkundig noch nicht soweit." Frage ist eher auf wen es ein schlechtes Licht wirft. Auf die KI die es wie ein Kleinkind einfach nachplappert oder auf unsere Spezies die der KI als erstes beibrachte wie sie mit Rassismus (u.ä.) andere Menschen verletzen kann. Sie hätte die Entschuldigung nicht wirklich denken zu können...wir aber haben diese Ausrede nicht.
2. Asimovs Robotergesetze...
habo10 24.03.2016
...setzten bereits eine hochentwickelte künstliche Intelligenz vorraus. Stellen Sie sich nur mal vor, sie müssten jemendem der keinerlei Vorstellung von Menschen, ihren Körpern und deren Funktion und Integrität hat, das Konzept "Verletzung" erklären. Nicht nur gibt es unzählige Ausnahmen und Sonderfälle, es gibt auch unzählige Methoden einen Menschen zu verletzen. Und das ist nur die physische Seite. Wenn man, wie der Autor hier, dabei auch psychische Verletzungen einschliesst, wird dies eine KI wohl nie verstehen. Wer sollte es ihr auch erklären? Wir selbst sind ja noch nicht mal in der Lage ein Verhalten zu entwickeln, mit dem wir nicht doch irgend jemand kränken oder verletzen.
3.
Coniuratio_89 24.03.2016
That's what people do, ignite hate in each other. What did Microsoft expect? Funny how awful we all are.
4. Die Gleichung lautet
rbwntr 24.03.2016
Künstliche Intelligenz x Natürliche Dummheit = Künstliche Dummheit
5. Wieso künstliche Intelligenz?
627235 24.03.2016
Was Dinge unreflektiert aufnimmt, ist nicht intelligent - arbeitet Microsoft etwa an künstlicher Dummheit? Man sollte annehmen, davon hätten wir schon genug natürlich vorkommende...
Alle Kommentare öffnen
    Seite 1    

© SPIEGEL ONLINE 2016
Alle Rechte vorbehalten
Vervielfältigung nur mit Genehmigung der SPIEGELnet GmbH





Anzeige
  • Christian Stöcker:
    Spielmacher

    Gespräche mit Pionieren der Gamesbranche.

    Mit Dan Houser ("Grand Theft Auto"), Ken Levine ("Bioshock"), Sid Meier ("Civilization"), Hideo Kojima ("Metal Gear Solid") u.v.a.

    SPIEGEL E-Book; 2,69 Euro.

  • Bei Amazon kaufen.
Der kompakte Nachrichtenüberblick am Morgen: aktuell und meinungsstark. Jeden Morgen (werktags) um 6 Uhr. Bestellen Sie direkt hier: