EU-Verordnung Kommen jetzt Uploadfilter gegen digitale Terrorinhalte?

Per Verordnung will die EU terroristische Inhalte im Internet eindämmen - mit kurzen Löschfristen und Uploadfiltern. Kritiker warnen vor einer Überregulierung, die vor allem kleinere Anbieter trifft.

Australien hat auf den Terroranschlag in Christchurch und die hunderttausendfach im Netz verbreiteten Terrorbilder mit einem drastischen Gesetz reagiert : Wenn Internetdienste beispielsweise Videos oder Fotos mit "abscheulicher Gewalt" nicht "umgehend" entfernen, drohen ihnen zukünftig Geldstrafen von umgerechnet bis zu 6,65 Millionen Euro oder bis zu zehn Prozent ihres weltweiten Jahresumsatzes. Den Managern solcher Unternehmen drohen bis zu drei Jahre Gefängnis.

Auch in EU-Ländern soll die Verbreitung von terroristischen Inhalten im Internet eingedämmt werden. Auf die Plattformen dürften damit neue Filter- und Löschregeln zukommen - die stark umstritten sind. Bei Regelverstößen drohen Bußgelder von bis zu vier Prozent des globalen Jahresumsatzes.

Die Pläne dafür liegen derzeit beim EU-Parlament. An diesem Montag stimmt der zuständige Parlamentsausschuss für bürgerliche Freiheiten, Justiz und Inneres (LIBE) über seine Position zu den Vorschlägen ab.

Kritik an den Löschfristen

Der im Herbst 2018 von der EU-Kommission vorgestellte Entwurf  für die "EU-Verordnung zur Verhinderung der Verbreitung terroristischer Online-Inhalte" will, dass Plattformen terroristische Inhalte innerhalb einer Frist von nur einer Stunde, nachdem sie eine entsprechende Aufforderung durch Europol oder nationale Strafverfolgungsbehörden erhalten haben, löschen müssen. Im ursprünglichen Text war auch vorgesehen, dass Plattformen das Hochladen terroristischer Inhalte proaktiv verhindern sollen, indem sie Uploadfilter einsetzen.

Der EU-Abgeordneten Julia Reda zufolge "zeichnet es sich ab, dass der expliziten Verpflichtung zum Einsatz von Uploadfiltern zwar eine Absage erteilt wird" - dennoch würden die Plattformen, wie bei der Urheberrechtsreform, durch die vorgesehenen rigiden Filter- und Löschpflichten praktisch zum Einsatz automatisierter Filtersysteme gezwungen. "Es ist mir völlig schleierhaft, wie ein Webseitenbetreiber ohne automatische Filter einer derart kurzen Löschfrist nachkommen soll", sagte Reda dem SPIEGEL.

"Erschreckend ist, dass diese Verpflichtung anders als bei der Urheberrechtsreform nicht auf profitorientierte Onlineplattformen beschränkt sein soll, sondern schlichtweg jede Webseite trifft, auf der User Inhalte selbstständig hochladen können - also auch die Wikipedia oder ein privates Blog mit einer Kommentarfunktion", so Reda. Plattformen hätten nur zwei Optionen: "24/7" erreichbar zu sein, um problematische Inhalte manuell zu löschen, oder automatisierte Lösch-Lösungen zu nutzen.

Haben die Großen es leichter?

Dass die Maßnahmen alle möglichen Größen und Arten von Plattformen betreffen, selbst Internet-Dienstleister, die keinen Bezug zu terroristischen Inhalten haben, stört nicht nur Reda. Auch Digitalexperten wie der World-Wide-Web-Erfinder Tim Berners-Lee haben dies in der vergangenen Woche in einem offenen Brief an EU-Abgeordnete  als "unverhältnismäßig" kritisiert.

Die großen Plattformen wie YouTube oder Facebook wären im Vorteil, lautet eine Sorge. "Terroristische Inhalte beim Hochladen zu filtern, ist mit Herausforderungen und Risiken behaftet, und nur eine Handvoll Onlinedienste verfügen über die Ressourcen und Kapazitäten, um eine solche Technologie aufzubauen oder zu lizenzieren", heißt es in dem Schreiben - die großen Tech-Konzerne hätten zudem bereits "hochentwickelte Content-Moderations-Prozesse" etabliert.

Allerdings gelingt es selbst den Systemen von Firmen wie YouTube und Facebook nicht immer zuverlässig, terroristische Inhalte zu erkennen.

Schwammige Definition von Terror-Content

Unklar ist auch, welche Inhalte genau als "terroristische Inhalte" zu betrachten sind. Da keine Ausnahmen für Bereiche wie Bildung, Journalismus oder Forschung definiert seien, befürchten die Unterzeichner des offenen Briefes, dass Plattformen zu viele Inhalte löschen. So könnte auch legales oder für die Öffentlichkeit relevantes Material entfernt werden, wie journalistische Berichte über Terroranschläge oder Kriege.

"Der Vorschlag ist zu weit gefasst und wird zu einer Karikatur des Strafrechts", sagt auch Martin Scheinin, der als Professor am European University Institute (EUI) in Florenz Internationales Recht und Menschenrechte lehrt und ehemaliger UN-Sonderberichterstatter für Menschenrechte im Kampf gegen den Terrorismus ist, dem SPIEGEL.

"Der Entwurf strebt eine recht umfassende Abdeckung von Online-Inhalten an, die potenziell krimineller Natur sind. Aber man sollte ein solches Instrument nur in den extremsten Fällen einsetzen - dort, wo es deutlich ersichtlich ist, dass die betroffenen Online-Inhalte eine Anstiftung zum Terrorismus sind."

Gefahr politisch motivierter Löschaufträge

Kritisch sieht der Rechtsexperte auch, dass Behörden die Löschung von als terroristisch definierten Inhalten auf Plattformen in anderen Ländern veranlassen können. "Es ist eine völlig neue Dimension transnationaler Macht von einzelnen EU-Mitgliedstaaten über Plattformen anderer Länder", sagt Scheinin. Autoritäre EU-Länder wie zum Beispiel Ungarn könnten aus politischen Gründen unliebsame Inhalte auf Onlineplattformen aus Ländern wie Deutschland löschen lassen.

Auch Spanien sei sehr empfindlich beim baskischen Unabhängigkeitsbestreben und bezeichne Unterstützung für baskische Selbstbestimmung schnell als Terrorismus, so Scheinin. "Das ist ein sehr ernstes Problem, gekoppelt mit dem Fehlen effektiver Prozesse, und dem Zeitlimit von nur einer Stunde für das Entfernen gemeldeter Inhalte", warnt Scheinin.

Die Grünen setzen sich derzeit für einen Alternativantrag ein , der vorsieht, dass Plattformen gemeldete Inhalte nicht innerhalb von einer Stunde, sondern "schnellstmöglich" löschen müssen - was den Internetdienstleistern mehr Spielraum eröffnen würde.

Wie es weitergeht

Die Einigung auf einen Entwurfstext des federführenden LIBE-Ausschusses am Montag ist ein entscheidender Schritt im Ringen um die geplante EU-Verordnung, aber keine endgültige Entscheidung. Die Position des LIBE-Ausschusses kann Reda zufolge durch das Plenum noch geändert werden - der Abstimmungstermin hierfür steht noch nicht fest. Danach folgen Trilog-Verhandlungen zwischen EU-Parlament, EU-Kommission und den Mitgliedstaaten im Rat, die sowohl die Löschfrist von einer Stunde als auch den verpflichtenden Einsatz von Uploadfiltern unterstützen.

"Anders als die Urheberrechtsrichtlinie handelt es sich hier um eine Verordnung. Das bedeutet, sie wäre direkt geltendes Recht in allen EU-Mitgliedstaaten", sagt Julia Reda. "Die Verordnung soll ein halbes oder ein Jahr nach Verabschiedung in Kraft treten, über diesen Punkt herrscht noch Uneinigkeit."

Update 09.04.2019: Der LIBE-Ausschuss hat seine Position zur EU-Verordnung  am Montag wie geplant beschlossen. Die Verpflichtung für Plattformen, Uploadfilter einzusetzen, wurde wie erwartet gestrichen. Die Löschfrist von einer Stunde nach der Meldung terroristischer Inhalte ist dagegen weiterhin im Entwurf erhalten, weswegen die Befürchtung besteht, dass der Einsatz von Filtern dadurch in der Praxis notwendig wird. Der nächste Schritt ist die Abstimmung des gesamten EU-Parlaments über den Entwurf.

Die Wiedergabe wurde unterbrochen.