Suizid einer 14-Jährigen Instagram verschleiert Fotos von Selbstverletzungen

Die Eltern einer jungen Britin halten Instagram für mitschuldig am Suizid ihrer Tochter. Nun will das Unternehmen die Glorifizierung von Selbstverletzung und Selbsttötung im Netzwerk bremsen.

Instagram-Logo
REUTERS

Instagram-Logo


Instagrams Chef Adam Mosseri will Bilder von Selbstverletzungen weniger sichtbar machen. Auslöser ist der Suizid der damals 14-jährigen Britin Molly Russell im November 2017: Die Eltern hatten später unter anderem auf dem Instagram-Profil ihrer Tochter verstörende Inhalte entdeckt und die Facebook-Tochter wie auch Pinterest vor einigen Tagen mitverantwortlich für den Tod von Molly gemacht.

In einem Gastbeitrag für den "Telegraph" gab Mosseri zu, beim Schutz seiner Nutzer sei Instagram "noch nicht, wo wir sein müssen". Das Unternehmen habe einerseits Schwierigkeiten damit, Inhalte zu identifizieren und zu entfernen, die Selbstverletzungen und Suizid glorifizieren oder dazu ermutigen. Andererseits will es die Verbreitung jener Inhalte erlauben, die Experten zufolge hilfreich sein können, weil Nutzerinnen und Nutzer damit Hilfesignale senden oder eigene Erfahrungen verarbeiten können.

Nun sollen im Laufe dieser Woche sogenannte Sensitivity Screens für Fotos von selbst zugefügten Schnittwunden eingeführt werden. Das sind Filter, die über Bilder gelegt werden und diese verschwimmen lassen. Nutzer müssen dann ausdrücklich signalisieren, dass sie die Inhalte sehen wollen, um einen Filter zu deaktivieren. Inhalte zu selbstverletzendem Verhalten sollen zudem nicht länger in der Suche, Hashtags oder Empfehlungen auftauchen.

Nutzermeldungen und Automatisierung

Allerdings muss Instagram das entsprechende Material dazu erst einmal finden und prüfen. Bisher verlässt sich die Facebook-Tochter vor allem auf die Nutzer, die problematische Inhalte melden können. Mosseri räumte ein, dass dieser Ansatz nicht ausreiche: "Wir finden noch nicht genug solcher Bilder, bevor andere Menschen sie zu sehen bekommen". Technische Maßnahmen - womit eine automatische Bild- und Texterkennung gemeint sein dürfte - sowie geschulte Ingenieure und Prüfer sollen die Quote erhöhen.

Darüber hinaus will Instagram jenen Nutzerinnen und Nutzern, deren Bilder vermuten lassen, dass sie an Selbstverletzung oder Suizid denken, professionelle Hilfe vermitteln.

Diese Maßnahmen wurden nun rund eine Woche nach einer Warnung von Großbritanniens Gesundheitsminister Matt Hancock angekündigt - er hatte Social-Media-Unternehmen mit gesetzlichen Regelungen gedroht, sollten sie es nicht schaffen, solche Inhalte von ihren Plattformen zu entfernen.

Kreisen Ihre Gedanken darum, sich das Leben zu nehmen? Sprechen Sie mit anderen Menschen darüber. Hier finden Sie - auch anonyme - Hilfsangebote in vermeintlich ausweglosen Lebenslagen. Per Telefon, Chat, E-Mail oder im persönlichen Gespräch.

pbe

Mehr zum Thema


TOP
Die Homepage wurde aktualisiert. Jetzt aufrufen.
Hinweis nicht mehr anzeigen.