Nach Debatte um Mordvideos Facebook stellt 3000 neue Online-Aufpasser ein

Mordvideos werden zu spät gelöscht, Hetze bleibt stehen: Für seinen Umgang mit problematischen Inhalten wurde Facebook in den letzten Tagen massiv kritisiert. Jetzt vergrößert das Unternehmen sein Prüfteam.

Mark Zuckerberg
Getty Images

Mark Zuckerberg


"Wir werden weiter alles tun, was wir können, damit solche Tragödien nicht geschehen" - das hatte Facebook-Chef Mark Zuckerberg Mitte April auf der Entwicklerkonferenz F8 seines Unternehmens gesagt. Facebook stand da gerade heftig in der Kritik, weil ein Mann in Cleveland per Facebook-Video angekündigt hatte, er werde jemanden töten. Danach lud er einen knapp einminütigen Clip der Tat hoch und streamte sein Geständnis des Mordes live.

Der Fall aus Cleveland sollte nicht der letzte bleiben, der Facebook Negativ-Schlagzeilen einbrachte: Vergangene Woche waren bei Facebook fast 24 Stunden lang zwei Videos abrufbar, die zeigten, wie ein Mann in Thailand seine elf Monate alte Tochter erhängt.

Das war wohl auch für Facebook zu viel. Am Mittwoch nun zeigt das Unternehmen, dass es durchaus noch mehr gegen problematische Inhalte tun kann, als bisher. Mark Zuckerberg selbst kündigt per Facebook-Post an, dass das derzeit 4500-köpfige sogenannte Community Operations Team seiner Firma um 3000 Stellen erweitert wird.

Das Community Operations Team ist bei Facebook für den Umgang mit von Nutzern beanstandeten Inhalten zuständig. Die Abteilung prüft etwa Nutzerhinweise auf Hassrede und Kindesmissbrauch, ist aber auch für die zeitnahe Löschung von Gewaltvideos zuständig.

Man arbeite daran, problematische Videos einfacher meldbar zu machen, "damit wir schneller die richtige Maßnahme ergreifen können", schreibt Zuckerberg: "Ob es nun eine schnelle Antwort ist, wenn jemand Hilfe braucht, oder das Entfernen eines Postings." Den Mitarbeitern des Community Operations Teams sollen künftig zudem neue Tools dabei helfen, schneller feststellen zu können, ob ein Inhalt gegen Facebooks Standards verstößt.

"Das ist wichtig", heißt es gegen Ende des Postings. Erst letzte Woche sei Facebook auf einen Live-Streamer hingewiesen worden, der überlegt habe, sich umzubringen. "Wir haben uns sofort an die Polizei gewandet, und sie schaffte es, ihn davor zu bewahren, sich selbst zu verletzen", schreibt Zuckerberg. "In anderen Fällen waren wir nicht so erfolgreich."

mbö/Reuters/AP



insgesamt 3 Beiträge
Alle Kommentare öffnen
Seite 1
.freedom. 03.05.2017
1.
So lange nackte Brüste schlimmer sind als Panzer, wird das nichts mit dem löschen problematischer Inhalte.
xineohp 04.05.2017
2. Von zentraler Bedeutung ist, ...
... dass Minderjährige nicht unbegleitet ins Internet dürfen, da schon wenige dieser schrecklichen Inhalte ausreichen um bei Kindern schwere traumatische Störungen für den Rest ihres Lebens auszulösen. Auch 3000 Aufpasser werden nichts daran ändern. Sind die Videos erstmal im Umlauf, dann bleiben sie erreichbar im Internet - mit oder ohne Facebook-Account. Nehmt den Kinder- und Jugendschutz endlich ernst und kommt Eurer Schutzbefohlenheit und Fürsorgepflicht nach: keine Smartphones und Tablets für Minderjährige und den Internetbesuch begleiten. das ist der einzige Schutz - das sind nun mal die Fakten.
Poco Loco 04.05.2017
3. Und ich dachte immer...
....der Algorithmus kann alles, sogar Autos fahren und bald auch Gedanken lesen. War wohl doch alles Fakebook, jetzt müssen die Handwerker wieder ran. Daran kann man auch erkennen, dass die Überwachung von Bürgern, bei diesen Massen von Daten, auch an seine Grenzen stösst. Es ist schlichtweg unmöglich.
Alle Kommentare öffnen
Seite 1

© SPIEGEL ONLINE 2017
Alle Rechte vorbehalten
Vervielfältigung nur mit Genehmigung der SPIEGELnet GmbH


TOP
Die Homepage wurde aktualisiert. Jetzt aufrufen.
Hinweis nicht mehr anzeigen.