Online-Propaganda Auch Google kämpft mit künstlicher Intelligenz gegen Terror-Inhalte

Nach Facebook geht auch Google in die Offensive: Der Konzern beschreibt in einem Zeitungsbeitrag, wie er künftig stärker gegen terroristische Inhalte auf seinen Plattformen vorgehen will.
Google-Zentrale in Irland

Google-Zentrale in Irland

Foto: PETER MUHLY/ AFP

Google hat angekündigt, den Kampf gegen terroristische Inhalte im Netz mit künstlicher Intelligenz zu verstärken. Der Internetkonzern werde dafür mehr Entwickler und seine modernste Technologie bei selbstlernenden Maschinen einsetzen, kündigte Google-Chefjurist Kent Walker am Sonntag an. Gleichzeitig will das Unternehmen verstärkt auf Hilfe von Experten setzen. Erst vor wenigen Tagen war Facebook mit einer ähnlichen Erklärung an die Öffentlichkeit gegangen.

Unter anderem sollen so bei der Videoplattform YouTube automatisch mehr Clips mit Terrorpropaganda aufgespürt werden. Auch die Zahl der Experten, die über als verdächtig markierte Videos entscheiden, werde stark erhöht, schrieb Walker in einem Beitrag in der "Financial Times" und im Unternehmensblog. Google setzt dabei auf "Trusted Flagger", das sind Einzelpersonen und Organisationen, denen Google vertraut, wenn sie anstößige oder rechtswidrige Inhalte anzeigen. Das können auch Strafverfolgungsbehörden sein.

In Deutschland gehören jugendschutz.net, das gemeinsame Kompetenzzentrum von Bund und Ländern für den Jugendschutz im Internet, sowie der Verein FSM (Freiwillige Selbstkontrolle Multimedia-Diensteanbieter) zu den "Trusted Flaggern".

Walker betonte, Google, YouTube und andere Internetfirmen arbeiteten zwar schon seit Jahren daran, solche Inhalte zu finden und zu löschen - aber "die unbequeme Wahrheit ist, dass wir als Industrie eingestehen müssen, dass noch mehr getan werden muss. Jetzt".

Druck aus der Politik nimmt zu

Google setze bereits auf die Analyse von Videobildern, um Terrorpropaganda auch ohne Hinweise von Nutzern zu entdecken, betonte Walker. Mehr als die Hälfte der in den vergangenen sechs Monaten gelöschten Inhalte sei so gefunden worden. Entwickler des Internetkonzerns hätten eine Technologie entwickelt, die ein erneutes Hochladen bereits bekannter terroristischer Videos verhindere.

Auch Facebook gab vor wenigen Tagen bekannt, dass selbstlernende Maschinen stärker dafür eingesetzt werden, solche Inhalte gar nicht erst wieder auf die Plattform durchzulassen. Zudem werde an einem Algorithmus gearbeitet, der terroristische Propaganda durch Textanalyse erkennen solle.

Internetunternehmen stehen in Europa unter wachsendem Druck aus der Politik, härter gegen Terrorinhalte vorzugehen. So erklärte die britische Premierministerin Theresa May nach dem jüngsten Attentat auf der London Bridge, Extremismus finde im Netz eine sichere Brutstätte - und die großen Internetunternehmen ließen dies zu.

In Deutschland sieht ein umstrittener Gesetzentwurf von Bundesjustizminister Heiko Maas (SPD) Strafen von bis zu 50 Millionen Euro vor, wenn Internetfirmen illegale Inhalte nicht schnell genug löschen. Für Montag ist zu dem Gesetz eine Anhörung im Rechtsausschuss des Bundestags angesetzt, bei der unter anderem Organisationen und Verbände ihre Argumente einbringen können.

gru/dpa
Die Wiedergabe wurde unterbrochen.