Software gegen Trolle Google will Diskussionskultur im Internet retten

Beleidigungen machen viele Diskussionen im Netz ungenießbar. Eine Google-Tochter will jetzt die Lösung gefunden haben: Eine selbstlernende Software soll das Gift aus Kommentarspalten saugen. Kann das klappen?

Firmenlogo (bei einer Ausstellung)
AP/ Imaginechina

Firmenlogo (bei einer Ausstellung)

Von


Ein kleiner Teil des Google-Imperiums hat den Auftrag, sich der Weltverbesserung zu widmen. Der konzerneigene Think Tank Jigsaw will jetzt zwar nicht gleich die Menschheit retten, zumindest aber die Diskussionskultur im Internet.

Diese krankt allgemein daran, dass es in Online-Kommentarspalten allzu oft ums Pöbeln statt um die Sache geht. Trolle vertreiben Andersdenkende, töten damit die Diskussion. Moderatoren kommen mit Freigabe und Löschungen von Beiträgen oft kaum noch hinterher.

Jigsaws Lösung: Eine selbstlernende Software namens "Perspective" soll die Pöbeleien automatisch erkennen und aussortieren. Der Algorithmus wurde in den vergangenen Monaten zusammen mit der "New York Times" getestet und steht ab sofort auch anderen Medien und Plattformbetreibern kostenlos zur Verfügung. Er soll ihnen beim Kampf gegen Trolle und Pöbler unter die Arme greifen.

Es geht dabei um die automatische Identifizierung "giftiger Kommentare". Giftig, so erklärt es Jigsaw-Chef Jared Cohen, ist Sprache, die Nutzer dazu verleitet, die Unterhaltung zu verlassen. Gespeist wurde seine Datenbank mit Beiträgen aus der "New York Times"-Kommentarspalte und aus Wikipedia-Diskussionen, die noch von Menschen als unanständig gebrandmarkt wurden.

Aus dem Spiegel

Politische Bewegungen und Staaten haben Macht des Trollens entdeckt

Der Vorstoß von Jigsaw ergänzt eine ganze Reihe von Pilotprojekten zur Verbesserung der Diskussionskultur im Internet. Denn bei vielen ist die anfängliche Begeisterung über neue Austauschmöglichkeiten mittlerweile verblasst. Auf den großen Plattformen Facebook, YouTube und Twitter greifen Hetze und persönliche Bedrohungen um sich, auch in den Kommentarspalten der Medien entgleitet die Diskussion oft und schnell. Zuletzt haben auch politische Bewegungen und Staaten die Macht des systematischen Trollens zur Durchsetzung ihrer Interessen entdeckt.

Die Tech-Giganten des Silicon Valley suchen die Antwort auf diese und andere Probleme gerade besonders gern bei künstlicher Intelligenz und maschinellem Lernen - also in Software, die schlau genug wird, es mit Menschen aufzunehmen.

So auch bei Jigsaws Persepctive. Die Idee: Das Programm soll jeden Kommentar mit einem Giftwert von 0 bis 100 kennzeichnen - und diese automatische Einordnung soll Medien, die Perspective einsetzen, entlasten.

Konkret könnte das etwa bedeuten, dass ein Forenmoderator bei "New York Times" oder SPIEGEL ONLINE nicht mehr alle Beiträge händisch begutachtet, sondern nur noch solche, die einen Giftwert von 90 oder mehr aufweisen. Eine Arbeitserleichterung, die nebenbei erreichen soll, dass es wieder mehr Diskussionen gibt.

Medien sind überfordert

Medienhäuser haben hier durchaus ein Problem: Bei der "New York Times" durchforsten etwa 14 Moderatoren Tag für Tag rund 11.000 Leserkommentare. Das Aufkommen ist so groß geworden, dass nur noch jeder zehnte Artikel überhaupt für Diskussionen der Nutzer freigeschaltet wird. Mehrere Medien schränkten zuletzt die Kommentarfunktionen ein, erst kürzlich schaltete die "Neue Zürcher Zeitung" das Forum unter den Online-Artikeln ganz ab. Stattdessen soll es pro Tag nur noch Nutzer-Debatten zu drei Themen geben können. "Die Stimmung ist gehässiger geworden", hieß zur Begründung. (Auch bei SPIEGEL ONLINE begutachten Mitarbeiter jeden einzelnen Kommentar, bevor dieser freigeschaltet wird. Bei manchen Themen, bei denen erfahrungsgemäß besonders viele unangemessene, beleidigende oder justiziable Forumsbeiträge eingehen, bleibt das Forum dicht, ebenso bei knappen Meldungen.)

Jigsaw-Leiter Jared Cohen verkauft sein Projekt mit dem Satz: "Wir wollen ein gesünderes Internet." Aber ist seine selbstlernende Software schlau genug, um es mit Trollen aufzunehmen? Cohen räumt ein, dass man noch ganz am Anfang stehe und auch Fehler passieren werden.

Ist die Software schlauer als Trolle?

Er betont die Grundlogik maschinellen Lernens: Je mehr Daten einfließen würden, desto schlauer werden die Algorithmen, Immerhin will die "New York Times" das Programm weiter einsetzen, es soll auch Gespräche mit dem "Guardian" und dem "Economist" geben. Zündet das Programm, könnte eine Version für die deutsche Sprache folgen.

Allerdings haben sich Trolle bislang äußerst geschickt darin erwiesen, Sprachregeln und -verbote zu erkennen und auszutricksen. Gesperrte Begriffe werden dann leicht etwa abgewandelt formuliert, Beleidigungen indirekter ausgestoßen. Und Ironie ist bislang für Algorithmen nur schwer zu erkennen. Ob die Software "Perspective" wirklich schnell genug mitlernt?

Google selbst will wohl erst einmal abwarten. Denn im eigenen Firmenkosmos ist das Problem mit beleidigenden Kommentaren wohl bei der Tochter YouTube am dringlichsten. Doch selbst die Videoplattform, deren Umgang mit Hasskommentaren erwiesenermaßen verbesserungswürdig ist, wird die selbstlernende Software der hauseigenen Weltverbesserungs-Denkfabrik erst einmal nicht einsetzen.



insgesamt 60 Beiträge
Alle Kommentare öffnen
Seite 1
oschn 23.02.2017
1. Ironieerkennung
Troll-Posts sind doch hauptsächlich ironische Nachrichten. Erstmal bin ich gespannt, ob ein System in der Lage sein wird, Ironie zu erkennen (das ist ja oft nichtmal für Menschen erkennbar - nur deswegen schaukelt sich vieles dann hoch!). Zweitens sehe ich nichts Gefährliches an Ironie. Schädlich für eine Diskussion sind eher "alternative Fakten". Da kann man dann nämlich nichts mehr erwidern, wenn man nicht genau parat hat, warum diese eine Aussage gar nicht stimmen könne.
j.vantast 23.02.2017
2. Das wird lustig
Dann werden Youtube, Google+ etc. ja demnächst fast kommentarfrei sein.
Morpheus Nudge 23.02.2017
3.
Den Aspekt "Zensur" könnte man in diesem Zusammenhang wie folgt beleuchten: Wenn man davon ausgeht, dass unmoderierte und öffentliche Internetkommunikation auf populären Plattformen derart viel Hetze, Hass und Lügen produziert, dass es zu ernsten gesellschaftlichen und/oder politischen Konsequenzen kommt, dann *muss* man den Weg der Vereinbarung gehen, dass Hass, Hetze und Lügen hier nichts zu suchen haben. Ein Echtwelt-Vergleich wäre "pöbelnder/randalierender Mob, der die öffentliche Ordnung stört". Hooligans auf dem Weg zur Klopperei oder einem Spiel (was wohl dasselbe ist). Diese lässt man auch nicht gewähren oder unterhält sich ernsthaft über Zensur. Im Optimalfall macht die Software genau das, was eine professionelle Moderation tut. Bin gespannt, wie gut diese schwache (weil spezialisierte) KI ist.
j.vantast 23.02.2017
4. Sicher?
Zitat von oschnTroll-Posts sind doch hauptsächlich ironische Nachrichten. Erstmal bin ich gespannt, ob ein System in der Lage sein wird, Ironie zu erkennen (das ist ja oft nichtmal für Menschen erkennbar - nur deswegen schaukelt sich vieles dann hoch!). Zweitens sehe ich nichts Gefährliches an Ironie. Schädlich für eine Diskussion sind eher "alternative Fakten". Da kann man dann nämlich nichts mehr erwidern, wenn man nicht genau parat hat, warum diese eine Aussage gar nicht stimmen könne.
Das sehe ich aber ganz anders. Troll-Posts sollen einfach nur provozieren und haben in der Regel mit Ironie nichts zu tun. Die meisten Menschen die Troll-Posts verfassen kennen wahrscheinlich nicht einmal das Wort.
KlausF20 23.02.2017
5. Falscher Ansatz
Dass sich Moderatoren nur noch hochgiftige Beiträge ansehen sollen, geht doch am Kern des Problems vorbei. Denn dabei bleibt zuviel destruktiver Inhalt stehen. Die Postings mit einem automatisch erfassten Wert >90 müssten unbesehen gelöscht werden können, damit sich der menschliche Supervisor auf die Grauzone zwischen 50 und 90 konzentrieren kann.
Alle Kommentare öffnen
Seite 1

© SPIEGEL ONLINE 2017
Alle Rechte vorbehalten
Vervielfältigung nur mit Genehmigung der SPIEGELnet GmbH


TOP
Die Homepage wurde aktualisiert. Jetzt aufrufen.
Hinweis nicht mehr anzeigen.