"Talk to Transformer" Diese künstliche Intelligenz schreibt beängstigend gut

US-Wissenschaftler haben eine künstliche Intelligenz erschaffen, die Texte schreiben kann. Eigentlich nichts Besonderes - wären die Ergebnisse nicht so gut.

Getty Images/iStockphoto

Von


Es ist nur ein paar Jahre her, da hat man sich in der Computerbranche vor allem Gedanken darüber gemacht, wie schnell Computer schneller werden - und wie lange das noch so weitergehen kann. Mittlerweile ist viel wichtiger geworden, wie schnell künstliche Intelligenz (KI) besser wird. Unser Kolumnist Christan Stöcker hat dazu eine ausführliche Betrachtung geschrieben. Er hat das noch von Hand gemacht. In Zukunft muss man das womöglich nicht mehr.

Das jedenfalls legt ein Projekt des unter anderem von Elon Musk unterstützten Non-Profit-Forschungsunternehmens OpenAI aus Kalifornien nahe. Unter der Bezeichnung GPT-2 haben dessen Computerforscher eine KI erschaffen, die englischsprachige Texte so vervollständigen kann, dass sie von Texten, die ein Mensch geschrieben hat, kaum zu unterscheiden sind (hier kann man sie ausprobieren).

Anfang des Jahres, als sie die erste Version ihrer KI veröffentlichten, war den Forschern ihre eigene Software deshalb nicht geheuer. Sie war einfach zu gut. Denn das Besondere daran war und ist, dass diese KI ihre Texte nicht aus vordefinierten Textblöcken erzeugt oder dass sie auf ein Themengebiet spezialisiert ist. Sie produziert zu jedem und allem ein paar irgendwie passende Sätze oder Absätze.

Weil das so neu ist und so gut funktioniert, wurde die Software von ihren Schöpfern Anfang des Jahres zunächst nur in Auszügen veröffentlicht. Zur Begründung schrieben die Forscher damals: "Aufgrund unserer Bedenken bezüglich möglicher bösartiger Anwendungen dieser Technologie, geben wir das trainierte Modell nicht frei." Stattdessen wurde interessierten Wissenschaftlern zunächst nur eine abgespeckte Version zum Experimentieren zur Verfügung gestellt.

Diese erste Version basierte auf einem Datensatz von "nur" 124 Millionen Parametern, anhand derer die KI Texte zusammenstellte. Die jetzt veröffentlichte Version hingegen verfügt über 1,5 Milliarden Parameter, die zur Texterstellung herangezogen werden. Sein Grundwissen bezieht das System aus einem Datensatz, für den es acht Millionen als relevant betrachtete Webseiten lesen musste.

Fake News aus der KI

Die Experten hatten Angst, dass ihr System verwendet werden könnte, um Texte zu fälschen. Sei es, um "Fake News" zu produzieren oder um irreführende Artikel veröffentlichen oder gar Spam-Mails verschicken zu können, die den Anschein machen, von einem bestimmten Autor zu stammen.

Mit Fotos und Videos ist es so schon länger möglich, sogenannte Deepfakes zu erzeugen - das sind Bilder und Filme, in denen man den handelnden Personen die Gesichter anderer digital überstreift. Mittlerweile ist die Technik so einfach zu bedienen, dass eine Deepfake-App in China kürzlich zum Publikums-Hit wurde.

Und der auf Bild- und Videobearbeitung spezialisierte Softwarehersteller Adobe zeigte schon 2016 ein Programm, das in der Lage war, Sprachaufzeichnungen mit einem Texteditor zu bearbeiten und so den im Video gezeigten Personen beliebige Aussagen in den Mund zu legen. Dieses "Photoshop für Audiodateien" ist bis heute nicht veröffentlicht worden. Offenbar hat auch Adobe Bedenken, seine Software könnte zur Produktion echt klingender, aber falscher Aussagen missbraucht werden.

Eine KI soll KI-Texte erkennen

Die Frage, ob man ihre Software missbräuchlich verwenden könnte, haben die Open-AI-Forscher an das Center on Terrorism, Extremism, and Counterterrorism (CTEC) am Middlebury Institute of International Studies in Kalifornien weitergegeben. Einem Blogeintrag zufolge kamen die Experten zu dem Ergebnis, dass eine darauf spezialisierte Version der künstlichen Intelligenz tatsächlich geeignet wäre, glaubhaft klingende Propaganda für Marxisten, Dschihadisten oder Rassisten zu produzieren.

Parallel dazu haben die Forscher von OpenAI die Zeit seit ihrer ersten Ankündigung Anfang des Jahres genutzt, um ein System zu verfeinern, das von eben dieser KI generierte Texte automatisch erkennen soll. Mit einer Erkennungsrate von 95 Prozent sei dessen Trefferquote aber noch zu gering, heißt es. Verdächtige Texte müsse man daher zusätzlich mit weiteren Methoden überprüfen.

Auch damit, diese Erkennungssoftware zu veröffentlichen, hatten die Forscher Bauchschmerzen. Sie wollen Forschungen an Systemen, die Fake-Texte erkennen, unterstützen, fürchten aber auch, dass die Software eingesetzt werden könnte, um synthetisch erzeugte Texte so zu produzieren, dass sie von der Fake-Erkennung nicht bemerkt werden.

Erschreckend gut

Unter dem Titel "Talk to Transformer" hat der Entwickler Adam King das System jetzt so ins Netz gestellt, dass es von jedermann ausprobiert werden kann. Genau das haben wir getan und das System mit Texten aus der Bibel und anderen Quellen gefüttert.

Derzeit geht das nur auf Englisch, deshalb haben wir die Texte für diesen Artikel übersetzt:

  • Den Beginn der Genesis vervollständigte es nach "Der erste Tag war vergangen" mit Sätzen wie "Und Gott sagte, 'Lass Licht im Land des Ostens sein und lasse es ein Zeichen sein für Jahreszeiten und für Tage und Jahre'".
  • Eine Pressemitteilung zu einem neuen Smartphone ergänzte die Software mit einer Abhandlung über die Vorteile eines Dual-LED-Blitzes und den Möglichkeiten, dank eines schnellen Autofokus besonders gute Selfies und Gruppen-Selfies aufzunehmen.
  • Tolkiens Ring-Gedicht wird von der Maschine nach dem Satz "Im Lande Mordor, wo die Schatten drohn" mit dem Satz fortgeführt, "Der eine Ring, der mir so lieb ist. Der Ring der macht, der es für mich tat."

Natürlich sind das nur Stichproben und nicht alle Texte, die das System ausspuckte, waren fehlerfrei. Aber am Ende steht doch die Erkenntnis, dass man in Zukunft nicht mehr nur die Echtheit von Bilder und Videos, sondern auch die von Texten stärker wird kritisch hinterfragen müssen. Mit einem System auf Basis dieser KI ließe sich das Web vollautomatisiert mit echt wirkenden Fake-Texten fiktiver Autoren fluten.



insgesamt 86 Beiträge
Alle Kommentare öffnen
Seite 1
Fuxx81 07.11.2019
1. Passt
---Zitat--- Aber am Ende steht doch die Erkenntnis, dass man in Zukunft nicht mehr nur die Echtheit von Bilder und Videos, sondern auch die von Texten stärker wird kritisch hinterfragen müssen. ---Zitatende--- Da sehe ich jetzt nicht so das Problem. Bildern (auch bewegten) Bildern traut der Mensch fälschlicherweise, weil er es ja "mit eigenen Augen sehen" kann. Bei Texten stellt man sich hingegen schon immer die Frage nach dem (wahren) Verfasser und dessen Absichten.
syracusa 07.11.2019
2. und noch viel mehr ...
IMO verharmlost der Artikel die Gefahren aus einer solchen KI noch deutlich. Beispielsweise könnte eine solche KI problemlos einwandfreie Hausarbeiten für Schüler und Studenten erstellen, oder sogar Doktorarbeiten. Man füttert die KI mit einigen Kernthesen, und die sucht sich dann im Netz die dazu passenden Argumente und Belege zusammen, und schreibt daraus einen zusammenhängenden Text.
henninghugo 07.11.2019
3. Funktioniert nicht
Eine bekannte Erzählung über Robin Hood, deren Anfang ich eingab, wurde nicht erkannt und nicht weitergeführt. "Much ado about nothing" lautet daher mein Urteil.
HansHuckebein 07.11.2019
4. Ausblick
Am Schluss haben wir KIs, die Texte schreiben und andere, die sie lesen. Die Menschen können sich derweil um Wichtigeres kümmern...
jj2005 07.11.2019
5. DeepL
Ich spreche 5 Sprachen fliessend und nutze vier davon jeden Tag. Dennoch nutze ich gelegentlich, aus Faulheit oder um meine Kenntnisse zu verfeinern, Google Translate. Wer's noch nicht probiert, sollte es tun. In den letzten Jahren ist der Service UNGLAUBLICH GUT geworden. Man kann oft übersetzte, auch komplexe, Texte nicht mehr verbessern. Und falls das nicht reicht: DeepL ist noch einen Tick besser, kann allerdings nicht Webseiten 1:1 übersetzen.
Alle Kommentare öffnen
Seite 1

© SPIEGEL ONLINE 2019
Alle Rechte vorbehalten
Vervielfältigung nur mit Genehmigung


TOP
Die Homepage wurde aktualisiert. Jetzt aufrufen.
Hinweis nicht mehr anzeigen.