Forum: Netzwelt
"Deepfakes": Firmen gehen gegen gefälschte Promi-Pornos vor
Getty Images

Die Tech-Branche streitet über Videos, in denen Gesichter von Stars auf die Köpfe von Pornodarstellern montiert werden. Einige Plattformen wollen die Clips jetzt loswerden.

Seite 1 von 3
welto 07.02.2018, 20:46
1.

deepfake mit faceswap zu vergleichen ist grundsätzlich falsch. Deepfake ist sehr viel mächtiger. Faceswap erkennt wo sich im Bild die Gesichter befinden und tauscht sie pixel für pixel also verschiebt lediglich vorhandenes Bildmaterial auf dem Bildschirm umher. Deepfake ist eine künstliche Intelligenz die lernt was das gesicht einer Person ausmacht. Hat es das für zwei Personen gelernt, so kann es das Gesicht des einen in das Gesicht des anderen umwandeln. Dabei wird die Mimik übernommen und neue Bildinhalte werden geschaffen.
Doch Personen die nicht in der Öffentlichkeit stehen müssen sich kaum sorgen machen. Das tranieren der Künstlichen Intelligenz braucht viele Bilder die vielfälltig sein müssen (kennt die KI kein Bild der person mit offenem Mund, kann sie auch kein solches Bild erzeugen) und bei viele Bilder sind tausende Bilder gemeint.

Beitrag melden Antworten / Zitieren
Atheist_Crusader 07.02.2018, 20:59
2.

Zitat von welto
Doch Personen die nicht in der Öffentlichkeit stehen müssen sich kaum sorgen machen. Das tranieren der Künstlichen Intelligenz braucht viele Bilder die vielfälltig sein müssen (kennt die KI kein Bild der person mit offenem Mund, kann sie auch kein solches Bild erzeugen) und bei viele Bilder sind tausende Bilder gemeint.
Müssen Sie nicht? Haben Sie noch nie was von Rachepornos gehört? Wer entsprechendes Bildmaterial der Ex ins Netz stellt, der hat auch keine Hemmungen entsprechende Faktes zu erstellen und zu verbreiten. Dürfte sogar die bessere Wahl sein, weil sich reale Bilder oft zurückverfolgen lassen und zu rechtlichen Schritten führen. Mit digitalen Kunstschöpfungen die man aus ein paar öffentlichen Bildern zusammengesetzt hat, dürfte das schon schwieriger sein.
Ich weiß nicht wie das rechtlich in Deutschland geregelt ist, aber z.B. in den USA führt sowas gerne mal zu Kündigungen.

Andererseits... wenn die Technik so weit ist, dann ließe sich grundsätzlich alles als Fake abtun - auch reales Material. Das könnte es leichter machen die Echtheit von Fälschungen abzustreiten und den Sensationswert echter Bilder zu reduzieren - auf die gleiche Weise auf die UFO-Fotos und anderes fragwürdiges Zeug noch mehr an Beweiskraft verloren, je mehr sich Bildmanipulationssoftware verbreitete. Je einfacher eine Fälschung ist, desto mehr werden auch Originale in Zweifel gezogen.

Beitrag melden Antworten / Zitieren
hoeffertobias 07.02.2018, 21:14
3.

Zitat von welto
... (kennt die KI kein Bild der person mit offenem Mund, kann sie auch kein solches Bild erzeugen) und bei viele Bilder sind tausende Bilder gemeint.
Das halte ich für eine reine Mutmaßung! Auch wenn aktuelle deepfake - Software dazu entsprechend viele Fotos benötigt, wird das in Zukunft nicht mehr nötig sein. Aus Fotos anderer Personen wird die Software den geöffneten Mund einfach konstruieren. Für mich nur eine Frage der Zeit...

Beitrag melden Antworten / Zitieren
welto 07.02.2018, 21:27
4.

Eine Beziehung hat immer auch einen Vertrauenspart... dieses Vertrauen kann natürlich missbraucht werden. Eine Person die einem Vertraut zu verletzen war jedoch auch vor deepfake ziemlich einfach. Alles was ich sagen wollte ist, es ist nicht möglich aus einer handvoll Bilder eine Person in ein belibiges Video einzufügen. Dazu braucht es tausende von bildern, und diese sollten im normal Fall nicht öffentlich verfügbar sein. Deep fake trifft vorallem Personen des öffentlichen Lebens , Schauspieler, Model...

Beitrag melden Antworten / Zitieren
joergsi 07.02.2018, 21:31
5.

Die Frage dich sicher jeder Durchschnittsparanoiker, so wie ich, stellen sollte ist die folgende, wenn eine Software aus einem "Hobbyprojekt" solche Ergebnisse liefert, zu was sind Geheimdienste in der Lage?

Beitrag melden Antworten / Zitieren
welto 07.02.2018, 21:35
6.

das ist keine Mutmaßung. Bei der Methode von deepfake handelt es sich um ein neuronales Netz, ein encoderdecoder Netz mit mehreren tausend Parametern. mit nur einigen Bilder würde das Netzwerk "overfit"en also die wenigen Bilder auswendig lernen. Zum tranioern solcher Netze werden oft die Bilder verzerrt, rotiert, farb verändert um mehr varianz als input zu haben aber auch das reicht nicht aus um die zahl der benötigten trainings bilder auf wenige hundert zu reduzieren

Beitrag melden Antworten / Zitieren
bamesjond0070 07.02.2018, 21:38
7. Dass sich Reddit erst jetzt öffentlich von den Promi-Pornos distanziert hat [...] , ist überraschend"

Nein ist es nicht. Reddit lebt davon, möglichst wenig Inhalt zu zensieren. Das ist eigentlich auch bekannt, man sehe sich die Berichterstattung der letzten Monate an.

Außerdem wird ein wichtiges (und vom Deepfakes-Ersteller selbst angegebenes) Argument ausser Acht gelassen: FakeApp wurde auch deshalb jedem zugänglich gemacht, weil die Technologie bereits in der Lage ist derartig gute Fakes zu erstellen. Die Technologie jedem zu öffnen, wird nicht nur in einer gesellschaftlichen Debatte enden (siehe hier), sondern auch das Wissen der dadurch entstehenden Gefahren jedem vor Augen führen. Die Zeiten des Videobeweises dürften bald vorbei sein.

Beitrag melden Antworten / Zitieren
welto 07.02.2018, 21:46
8.

Zitat von hoeffertobias
Das halte ich für eine reine Mutmaßung! Auch wenn aktuelle deepfake - Software dazu entsprechend viele Fotos benötigt, wird das in Zukunft nicht mehr nötig sein. Aus Fotos anderer Personen wird die Software den geöffneten Mund einfach konstruieren. Für mich nur eine Frage der Zeit...
Das ist keine Mutmaßung. Deepfake benutzt ein encoderdecoder neuronales Netztwerk mit mehreren tausend parametern. Man braucht soviele parameter um komplexe funktionalität zu erziehlen, jedoch erhöht das auch die den freiheits grad des Netzwerks was dazu für das bei zu wenig trainingsdaten diese auswendig gelernt werden. Es findet ein "overfitting" statt und das netzwerk erziehlt schlechte ergebnisse bei Daten die nicht aus dem Trainingsset sind. tl:;dr Deepfake kann selbst in Zukunft nicht mit geringen Datenmengen trainiert werden

Beitrag melden Antworten / Zitieren
welto 07.02.2018, 21:53
9.

Zitat von Atheist_Crusader
Müssen Sie nicht? Haben Sie noch nie was von Rachepornos gehört? Wer entsprechendes Bildmaterial der Ex ins Netz stellt, der hat auch keine Hemmungen entsprechende Faktes zu erstellen und zu verbreiten. Dürfte sogar die bessere Wahl sein, weil sich reale Bilder oft zurückverfolgen lassen und zu rechtlichen Schritten führen. Mit digitalen Kunstschöpfungen die man aus ein paar öffentlichen Bildern zusammengesetzt hat, dürfte das schon schwieriger sein. Ich weiß nicht wie das rechtlich in Deutschland geregelt ist, aber z.B. in den USA führt sowas gerne mal zu Kündigungen. Andererseits... wenn die Technik so weit ist, dann ließe sich grundsätzlich alles als Fake abtun - auch reales Material. Das könnte es leichter machen die Echtheit von Fälschungen abzustreiten und den Sensationswert echter Bilder zu reduzieren - auf die gleiche Weise auf die UFO-Fotos und anderes fragwürdiges Zeug noch mehr an Beweiskraft verloren, je mehr sich Bildmanipulationssoftware verbreitete. Je einfacher eine Fälschung ist, desto mehr werden auch Originale in Zweifel gezogen.
Mit einer Beziehung ist ein Vertrauen gebunden und einem Menschen zu schaden der einem Vertraut ist auch ohne Deepfake einfach. Ich wollte damit nur sagen, dass es nicht möglich ist mit einer handvoll Bilder dieses Programm zuverwenden. zu einer durchschnittsperson sollte es nicht mehr als 100 Bilder im Netz geben und das reicht bei weitem nicht aus. betroffen sind eher Personen des öffentlichen Lebens, schauspieler, model...
Ich denke auch das echtheit und authentifikation im Mittelpunkt dieser Debatte stehen sollte. Es wird nicht möglich sein deepfakes zu verbieten weil es kaum möglich ist sie mit sicherheit als solche zu erkennen

Beitrag melden Antworten / Zitieren
Seite 1 von 3