Schockierte Nutzer TikTok löscht Suizidvideo nicht schnell genug

Ein Mann nimmt sich das Leben und filmt seine Tat. Der Kurzclip landet auf TikTok und wird arglosen Nutzern angezeigt. Das Original ist mittlerweile gelöscht, doch es gibt längst viele Kopien - und wütende Nutzer.
Foto: Dado Ruvic / REUTERS

Die Kurzvideoapp TikTok hat einen Clip von ihrer Plattform entfernt, auf dem zu sehen war, wie ein Mann sich das Leben nimmt. Das teilte die Firma am Dienstag mit. "Am Sonntagabend zirkulierten Videos eines Suizids, der auf Facebook per Livestream übertragen worden war, auf anderen Plattformen, darunter TikTok", schreibt die Firma dem SPIEGEL in einem Statement.

Zuvor hatte das Unternehmen bereits über Twitter erklärt , der Clip sei von den hauseigenen Systemen automatisch als Verstoß gegen die Richtlinien erkannt und gekennzeichnet worden. Man habe nicht nur das Video selbst entfernt, sondern auch Accounts gesperrt, die mehrfach versucht hatten, den Clip erneut hochzuladen.

In den Tweets unter der Stellungnahme ist dennoch teils heftige Kritik zu lesen: Die Löschung komme zu spät, viele der - überwiegend sehr jungen - TikTok-Nutzer hätten den verstörenden Film bereits gesehen. "Er hätte es gar nicht in die App schaffen dürfen", schreibt eine Nutzerin in Großbuchstaben.

Bei TikTok ist es wahrscheinlicher, auf den Clip zu stoßen

Manche berichten, sie hätten den Film sogar mehrfach gesehen, teils sei er in andere Videos eingebettet gewesen. Einige geben an, sie hätten im Zusammenhang mit dem Clip bestimmte Videos gemeldet  - von TikTok jedoch die Nachricht erhalten, der gemeldete Inhalt verstoße nicht gegen die Community-Richtlinien.

Darüber, dass das besagte Video selbst gegen die Richtlinien verstößt, herrscht allerdings auch bei TikTok Einigkeit. Ein Sprecher sagte gegenüber dem SPIEGEL, man entferne Inhalte, "die Suizid oder Suizidgedanken darstellen, sowie Inhalte, die zur Beteiligung an vergleichbaren Handlungen aufrufen". Auch "Inhalte, in denen Suizid gepriesen, verherrlicht oder gefördert wird oder die eine Anleitung zum Suizid enthalten", würden bei TikTok gelöscht.

Bevor die Plattform sich zu der Sache äußerte, hatten sich TikTok-Nutzer bereits gegenseitig vor dem Video mit seinen verstörenden Bildern gewarnt, berichtet unter anderem das Tech-Portal "The Verge" . Da bei TikTok auch die Beiträge Fremder in den eigenen Feed gespült würden, sei es dort wahrscheinlicher als in anderen sozialen Netzwerken, den unerwünschten Inhalt angezeigt zu bekommen.

Ein Facebook-Sprecher sagte dem SPIEGEL, das Netzwerk habe das besagte Video letzten Monat von seiner Plattform entfernt, und zwar an dem Tag, an dem die Tat gestreamt wurde. Seitdem setze man automatische Programme ein, um erneute Uploads und Kopien zu entdecken und zu entfernen.

Manche rieten dazu, die App erst einmal zu meiden

Auf TikTok, aber beispielsweise auch auf Twitter zirkulierten Screenshots aus dem Film mit einem bärtigen Mann - mit dem Hinweis, es nicht anzusehen, sondern es zu stoppen und schnell weiterzuscrollen. Mancher riet auch seinen Followern, die App für ein bis zwei Tage komplett zu meiden . Schließlich gehört es gewissermaßen zum Konzept der App, sich durch das Angebot treiben zu lassen und sich von Clip zu Clip zu hangeln.

"Wir schätzen es sehr, dass unsere Community Inhalte gemeldet und andere aus Respekt vor der betroffenen Person und ihrer Familie davor gewarnt hat, die Inhalte auf anderen Plattformen anzusehen oder sie weiterzugeben", schreibt der TikTok-Sprecher dem SPIEGEL, und weiter: "Wir appellieren an unsere Nutzer*innen, sich an eine Hotline zu wenden, wenn sie Unterstützung brauchen oder um Freunde oder Familienmitglieder besorgt sind. Wir ermöglichen den Zugang zu Hotlines direkt aus unserer App sowie aus unserem Sicherheitszentrum ."

TikTok gehört der chinesischen Firma ByteDance und ist bereits in der Vergangenheit für die Moderation der Inhalte kritisiert worden. Laut seinem Transparenzreport aus dem Juli hat das Unternehmen im vergangenen Dezember ein neues System zur inhaltlichen Moderation eingeführt - eine Mischung aus Technologie und menschlichen Moderatoren, die selbst tätig werden, aber auch die Meldungen von Nutzern prüfen. Die wiederum "können aus einer Liste von Gründen auswählen, warum ihrer Meinung nach ein Video oder ein Konto gegen unsere Richtlinien verstößt (wie zum Beispiel durch das Darstellen von Gewalt oder Verletzungen, Belästigung oder Hassrede)".

Kreisen Ihre Gedanken darum, sich das Leben zu nehmen? Sprechen Sie mit anderen Menschen darüber. Hier finden Sie – auch anonyme – Hilfsangebote in vermeintlich ausweglosen Lebenslagen. Per Telefon, Chat, E-Mail oder im persönlichen Gespräch.

(Mit Material von Reuters)

Die Wiedergabe wurde unterbrochen.