Künstliche Intelligenz Forscher lassen die Mona Lisa sprechen

Mit einer neuen Technik genügt ein einziges Porträtfoto, um Gesichter von Menschen realistisch am Computer zu animieren. Sogar Ölgemälde lassen sich so zum Leben erwecken.

YouTube/Eghor Zakharov

Von


Mithilfe künstlicher Intelligenz ist es schon länger möglich, Videos zu fälschen. Per Computer kann man den Anschein erwecken, jemand hätte Dinge getan, zu denen er nie fähig wäre oder hätte Dinge gesagt, die er nie sagen würde.

Der Weg dahin war bisher aber aufwendig: Damit sie realistisch wirkende Bewegungen einer Person errechnen konnte, musste man eine künstliche Intelligenz (KI) mit vielen Bilder oder Videoclips dieser Person trainieren. Forschern des Elektronikkonzerns Samsung genügt nun ein einziges Porträt, um daraus ein Video zu erzeugen, auf dem die fragliche Person sich bewegt und spricht. Das funktioniert sogar mit Ölbildern.

Gemeinsam mit russischen Wissenschaftlern haben die Koreaner einen Bericht (PDF) darüber veröffentlicht, wie sich so genannte Deepfake-Videos ganz einfach erstellen lassen.

Ihren Ansatz beschreiben die KI-Forscher so: "Tatsächlich kann unser System ordentliche Ergebnisse anhand nur eines Fotos erstellen, während zusätzliche Fotos den Personalisierungsgrad erhöhen." Dafür sei freilich auch einige Vorarbeit nötig gewesen. Um ihre Technik zu ermöglichen haben die Forscher eine sogenanntes neuronales Netzwerk mit zahlreichen aus unterschiedlichen Kameraperspektiven gedrehten Interviews trainiert. So sollte das System die möglichen Bewegungen menschlicher Gesichter erfassen.

Viel hilft viel

In einem YouTube-Video zeigen die Wissenschaftler, wie die Ergebnisse ihrer Arbeit aussehen. Darin wird unter anderem das Ölgemälde "Mona Lisa" von Leonardo da Vinci animiert. Drei verschiedene Schauspieler geben die Bewegungen vor, die die digitale Mona Lisa wie eine Puppe nachspielt. Bei dem Ölgemälde klappt das richtig gut. Bei anderen Videos lässt sich die Täuschung ziemlich leicht erkennen.

Bei einem animierten Foto von Marilyn Monroe etwa bewegen sich Augen, Wangenknochen und Mund realistisch, während sich rund um das Gesicht und in den Haaren deutliche Artefakte bilden. Hier ist die Täuschung leicht zu erkennen.

Aus den misslungenen Beispielen machen die Forscher keinen Hehl. Sie sagen: Je mehr Bilder für das Training zur Verfügung stehen, desto realistischer würden die Videos. Sie haben Zuschauer gebeten, den Realismus ihrer Fake-Videos zu bewerten. Das Ergebnis: Bereits mit 32 Bildern einer Person ist es laut den Forschern möglich, "perfekte Werte für Realismus und Personalisierung zu erreichen".

Unter anderem könnte die Videospiel-Industrie von der neuen Technik profitieren und von aufwendigen Motion-Capturing-Verfahren auf KI-Videos umsatteln. Außerdem könnten Spezialeffekte in Hollywood günstiger am Computer produziert werden.

Doch es gibt auch eine Kehrseite: Künftig könnten nicht mehr nur Promis wie Barack Obama als Versuchskaninchen für Fake-Videos missbraucht werden, weil von diesen Personen eben zahlreiche Fotos und Videos im Netz kursieren. Ein Facebook-Profilbild könnte bald genügen, um gefälschte Videos wie echt wirken zu lassen. Wozu das führen kann, zeigte die Aktion eines Reddit-Nutzers, der Gesichter Unbeteiligter in Pornovideos montierte.

Noch kritischer könnte der rasante Fortschritt in der Deep-Fake-Forschung dann werden, wenn auch Sound-Programme wie Adobes VoCo so weit ausgereift sind, um Stimmen zu imitieren. Dann steht Interviews mit falschen Aussagen zumindest technisch nichts mehr im Wege.



insgesamt 5 Beiträge
Alle Kommentare öffnen
Seite 1
Geostratege 24.05.2019
1.
Wenn bald jeder jeden und alles nach Gutdünken faken kann, dann wird uns dies hoffentlich schnurstracks einem Internet mit "eingebackener" zwingender Sicherheit und verpflichtender Content-Signierung näherbringen. Digitale Wahlmanipulation ist ja jetzt bereits Realität und erst der Anfang. Konsistenter Sicherheit steht mithin noch der Wunsch diverser Regierungen nach "Hintertürchen" entgegen, was aber den Sinn von starker Verschlüsselung prinzipbedingt ad absurdum führt. Früher oder später wird es vielleicht noch en masse zu betrügerischen Vergewaltigungsvorwürfen per Fake-Video oder -Audio kommen, oder automatisierte Schmierkampagnen gegen jeden, der kein rechtskonservativer Verschwörungshirni ist. Denkt mal an die Möglichkeiten! Mir ist jetzt schon schlecht.
gruener00 25.05.2019
2. So haben sie den Strache gefakt!
Kein Wunder, dass er sich an nichts erinnern kann.
5b- 25.05.2019
3. Desinformationszeitalter
Solche Techniken werden uns weiter ins Desinformationszeitalter stürzen als uns Soziale Medien schon gebracht haben. Ich hoffe nicht, dass entgegengesetzte Techniken zu mehr Überwachung führen. Das würde unsere Lebensqualität weiter mindern. Was wir solchen möglichen Unwahrheiten entgegensetzen müssen ist Würde, Gelassenheit, Anstand, gesunder Menschenverstand, Mut und vor allen Dingen ein mündiger Gerechtigkeitssinn. Trump ist eine gute Übung darin. Man muss solchen Dingen mit Gelassenheit entgegentreten den Unsinn ausblenden und den Inhalt Angehen. Übrigens könnte man Deep Learning auch dafür verwenden um Fakes zu erkennen.
ArmeOhren 25.05.2019
4. Es hat schon etwas Tragisches...
dass ausgerechnet weltweite Vernetzung und technischer Fortschritt die Grundlage für eine Welt bieten, in der wieder Gerücht und Fälschung regieren und man bald wieder nur noch glauben kann, was man mit eigenen Augen gesehen hat - wie im Mittelalter. Abgesehen davon -sehr faszinierende Technik :)
Peletua 25.05.2019
5. Spannend und gefährlich
Es war nur eine Frage der Zeit, wann eine solche (wirklich faszinierende und spannende) Technik entwickelt werden würde. Aber wie Forist 5b- (#3) richtig feststellt, können Entwicklungen wie diese immer tiefer ins Desinformations-Zeitalter führen. Vielleicht ist diese Technik, vorausgesetzt sie wird breit publiziert, auch ein Medikament gegen die Epidemie der hirnlosen Selfie-Veröffentlichungen. Ins Netz sollte man sein holdes Antlitz sowieso am besten gar nicht stellen; auch die eigene Stimme hat dort nichts verloren. Ich frage mich z.B. schon seit Längerem, ob Organisationen wie Amnesty International oder Avaaz mit ihren regelmäßigen Aufrufen, irgendeiner Forderung durch ein Selfie mehr Nachdruck zu verleihen, auch an die Sicherheit ihrer gutgläubigen Aktivisten denken. Jetzt wird diese Frage noch dringender.
Alle Kommentare öffnen
Seite 1

© SPIEGEL ONLINE 2019
Alle Rechte vorbehalten
Vervielfältigung nur mit Genehmigung


TOP
Die Homepage wurde aktualisiert. Jetzt aufrufen.
Hinweis nicht mehr anzeigen.