"Deepfakes" Firmen gehen gegen gefälschte Promi-Pornos vor

Die Tech-Branche streitet über Videos, in denen Gesichter von Stars auf die Köpfe von Pornodarstellern montiert werden. Einige Plattformen wollen die Clips jetzt loswerden.

"Mit diesem Programm kann jeder im Porno landen  - ob er will oder nicht!", schreibt der "Berliner Kurier". "Algorithmus macht Katy Perry zum Pornostar wider Willen  ", heißt es in der "Welt". Und die "FAZ" konstatiert: "Jetzt also 'Fake Porn' ."

Schlagzeilen wie diese zeigen: Über mangelnde öffentliche Erregung kann sich der Reddit-Nutzer mit dem Pseudonym "deepfakes" nicht beschweren. Er hatte vergangenen Herbst mehrere Videos veröffentlicht, in denen er Pornodarstellerinnen digital die Gesichter von Hollywoodstars wie Emma Watson, Gal Gadot und Scarlett Johansson aufsetzte. Er nutzte dazu eine als Face-Swap bezeichnete Technik, einen digitalen Gesichtstausch mithilfe künstlicher Intelligenz.

"Ich habe einfach einen cleveren Weg gefunden, einen Face-Swap einzusetzen", ließ sich "deepfakes" Anfang Dezember vom Tech-Magazin "Motherboard" zitieren , das als Erstes prominent und kritisch über das Netzphänomen berichtet hatte.

Empfohlener externer Inhalt
An dieser Stelle finden Sie einen externen Inhalt von Twitter, der den Artikel ergänzt und von der Redaktion empfohlen wird. Sie können ihn sich mit einem Klick anzeigen lassen und wieder ausblenden.
Externer Inhalt

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Dann kam die App für Laien

Der Artikel hatte Folgen: Diverse Medien weltweit sprangen auf das Thema an und hievten damit auch das den Videos gewidmete Reddit-Unterforum r/deepfakes ein Stück weit aus der Nische.

Zum Jahresanfang 2018 präsentierte dort ein weiterer Reddit-Nutzer ein Programm namens "FakeApp". Mit dieser Software lassen sich die Gesichter in Pornoclips auch ohne viel technisches Vorwissen austauschen - eine gewisse Rechenleistung und genug passendes Bildmaterial vorausgesetzt. Das, was "deepfakes" machte, konnten plötzlich auch viele andere Nutzer.

Empfohlener externer Inhalt
An dieser Stelle finden Sie einen externen Inhalt von Twitter, der den Artikel ergänzt und von der Redaktion empfohlen wird. Sie können ihn sich mit einem Klick anzeigen lassen und wieder ausblenden.
Externer Inhalt

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Auch darüber berichtete "Motherboard" , diesmal mit einem noch größeren Medienecho. Nach den Fake News wurde so auf einmal "Fake Porn" zum Aufreger. Was, wenn bald jeder das Gesichter von Promis oder Bekannten in Pornos einfügen kann? Lässt sich diese Entwicklung noch stoppen?

Reddit-Nutzer "deepfakes" hatte nach Erscheinen des ersten "Motherboard"-Textes selbst geschrieben , die Bedenken, die im Text geäußert werden, seien "real". Zu seinem Kommentar gehörte aber auch die Bemerkung, man ahne nicht, wie viele Kommentare und Nachrichten er in seinem Posteingang habe: "Zum Teil ist das reines Glück", schrieb "deepfakes". "Wuschige Männer sind simple Kreaturen."

Twitter und Pornhub wollen Fake-Pornos löschen

Tatsächlich dürfte die Berichterstattung rund um die Porno-Fakes deren Popularität nur befeuert haben - und so sind dieser Tage die Plattformen, auf denen die Videos geteilt werden, in den Fokus der Debatte geraten. Facebook und Instagram spielen hierbei allerdings keine Rolle, da sie ohnehin keine pornografischen Inhalte dulden.

Twitter jedoch kündigte diesen Dienstag auf eine "Motherboard"-Anfrage hin  an, Accounts zu sperren, die Videos im Stil der "deepfakes"-Werke ins Netz stellen oder die sich der Verbreitung solches Clips verschreiben. Eine ähnliche Position vertritt seit Kurzem auch Gfycat: Die Betreiber der Gif-Austauschplattform erklärten Ende Januar, "solche Inhalte" zu löschen . Zuvor hatte bereits die Chatplattform Discord einen Chatkanal rund um gefälschte Promi-Pornovideos vom Netz genommen.

Laut einer Stellungnahme will neuerdings auch die Porno-Plattform Pornhub Videos im "deepfakes"-Stil verschwinden lassen - was zunächst jedoch vor allem ein Lippenbekenntnis zu sein scheint: Mittwochmittag jedenfalls ließen sich auf der Plattform noch immer "deepfakes"-Videos abrufen.

Reddit schwieg lange

Die Haltung von Reddit blieb dagegen bis zum Mittwochabend unklar. Im Unterforum r/deepfakes wurden fleißig immer neue Fake-Clips geteilt. Nutzer gaben sich dort Tipps, wie sich die Videos optimieren lassen. Auf Anfragen zum Thema, etwa von "Motherboard" und "Mashable", reagierte die Plattform zunächst nicht.

Am Mittwochabend dann griff Reddit durch: Das Unterforum ist mittlerweile komplett gesperrt worden, die Richtlinien der Plattform zum Verbot von "unfreiwilliger Pornografie" wurden unter anderem um den expliziten Hinweis ergänzt, dass sie auch für gefälschte Darstellungen gelten .

Dass sich Reddit erst jetzt öffentlich von den Promi-Pornos distanziert hat - wenn auch mit dem Sperren des ganzen Unterforums recht klar -, ist überraschend, weil vermeintliche Sex-Aufnahmen von Stars schon einigen Digitalfirmen Ärger einbrachten. Anfang der Nullerjahre etwa setze sich Steffi Graf vor Gericht gegen Microsoft durch, nachdem auf "MSN" gefälschte Fotos der Tennisspielerin aufgetaucht waren.

Ein großes Thema

Obwohl nun mit dem Reddit-Unterforum der wichtigste Szene-Treffpunkt offline ist, ist abzusehen, dass das Thema "deepfakes" nicht allein durch angepasste Löschregeln einzelner Plattformen wieder verschwinden wird. Schon die moralische Frage, ob es verwerflich ist, echte Personen virtuell zum Sexobjekt zu machen, beschäftigt angesichts etwa von Sex-Apps für Virtual-Reality-Brillen, längst nicht mehr nur Philosophen, sondern auch Software-Entwickler und Computernutzer.

Fotostrecke

Sex-Apps für VR-Brillen: Pixeliges Vergnügen

Foto: VirtualRealPorn

Auch die Technik hinter den Fake-Videos wird im Gespräch bleiben, dafür ist das Interesse daran zu groß, auch jenseits der Pornoszene: Die Chance, ohne Vorkenntnisse Videos manipulieren zu können, dürfte zum Beispiel auch die Verbreiter politischer Falschnachrichten ansprechen. In Zeiten, in denen immer mehr Bilder und Videos von Personen im Netz landen, lässt sich das dafür notwendige Ausgangsmaterial leichter finden als früher.

Es kommt auf den Kontext an

Für viele Menschen gehört Software, wie sie in der "FakeApp" zum Einsatz kommt, sogar bereits zum Alltag. Face-Swapping, das Tauschen von Gesichtern, gehört in simplerer Form schließlich zu den beliebtesten Funktionen von Videochat-Apps wie Snapchat.

Bei der Frage, ob Menschen eine Technologie praktisch, lustig oder schlimm finden, kommt es eben auch immer auf den Kontext an. Auf der "Stern"-Website etwa ist angesichts der "deepfakes"-Videos von einer "erschreckenden Technik " die Rede. Vor gut einem Jahr hieß es dort aber zur Handy-App  "Face Swap Live": "Die kreativen Möglichkeiten sind schier unendlich - und die Ergebnisse wirklich komisch."

Und selbst für ein Programm wie "FakeApp" gibt es weniger kontroverse Anwendungen als Porno-Fälschungen: So veröffentlichte der belgische Computerexperte Sven Charleer vor einigen Tagen einen Blogpost , der seine Frau als Gast in Jimmy Fallons "Tonight Show" zeigte. Charleer hatte dafür das Gesicht der Schauspielerin Anne Hathaway durch das seiner Frau ersetzt. Überschrieben hatte er seinen Artikel mit "Familienspaß mit Deepfakes".


Update, 20.40 Uhr: Der Artikel wurde um die Reaktion von Reddit ergänzt.

Mehr lesen über Verwandte Artikel
Die Wiedergabe wurde unterbrochen.