Künstliche Intelligenz Adobe entlarvt Photoshop-Trickser

Eine experimentelle Software von Adobe lernt, manipulierte Fotos zu erkennen. Was Forensik-Experten Stunden kostet, schafft sie in Sekunden. Doch selbst die Fälschung von Videos wird immer besser.

Adobe-Logo
REUTERS

Adobe-Logo

Von


Eigentlich ist Adobe ja bekannt für Software, die Fotos manipuliert: Photoshop ist ein Produkt, das zum Verb geworden ist. Doch das Unternehmen arbeitet derzeit an einem Projekt, das genau das Gegenteil bewirken soll. Mitarbeiter arbeiten an einem Programm, das Alarm auslöst, wenn gefälschte Bilder auftauchen.

Die Technologie ist noch nicht marktreif, könnte aber unter anderem Journalisten in Zukunft dabei helfen, echte Aufnahmen von verfälschten Bildern zu unterscheiden. So würden Hoax-Fotos wie der Auftritt des früheren US-Präsidenten George W. Bush in einem Kindergarten, der augenscheinlich ein Buch falsch herum hält, schneller erkannt werden.

Für den Fake-Filter setzen Adobe-Entwickler künstliche neuronale Netze ein, sie spezialisieren sich vor allem auf drei Arten von Fälschungen:

  • Gemischte Bilder: Hierbei wird meist ein Objekt freigestellt und der Hintergrund neu aufgefüllt. Dieses Mittel verwenden Fälscher beispielsweise dann, wenn auf einem Foto das Rollfeld unter einem Flugzeug ausgeschnitten werden und stattdessen ein blauer Himmel und Wolken eingefügt werden sollen.
  • Geklonte Objekte: Hierbei wird ein Objekt auf einem Foto kopiert und an einer anderen Stelle wieder eingesetzt. Dieses Mittel hatte beispielsweise Iran im Jahr 2008 angewendet, um einen Raketentest noch spektakulärer aussehen zu lassen.
  • Retuschierte Bildbereiche: Wenn Speckfalten, Schweißflecken oder andere Elemente aus einem Bild weggepinselt werden, handelt es sich ebenfalls um eine Manipulation. Ein Lehrer aus New Jersey handelte sich Ärger ein, als er mit Bildbearbeitungssoftware ein Donald-Trump-Zitat von einem T-Shirt entfernte, das auf dem Foto in einem Schülerjahrbuch zu sehen war.

Für die Adobe-Software spielt es keine Rolle, welche Objekte auf dem Bild zu sehen sind. Die Erkennungssoftware stürzt sich auf die kleinsten Teilchen im Bild, die Pixel. Dort lassen sich laut den Forschungsergebnissen am besten Spuren finden, die auf eine Manipulation hindeuten.

Digitalkameras hinterlassen Spuren

Dafür zoomt die Bilderkennung sehr nah heran und sucht in den Pixelwölkchen nach Unregelmäßigkeiten, die für das menschliche Auge nahezu unsichtbar sind. Minimale Abweichungen beim Bildrauschen und bei der Glättung der Kanten geben Hinweise darauf, ob jemand das Foto im Nachhinein überarbeitet hat. Die Software verlässt sich bei der Analyse darauf, dass Digitalkameras immer gewisse Muster hinterlassen. Werden zwei Bilder gemischt oder bestimmte Bereiche nachträglich überarbeitet, dann werden diese Muster unterbrochen.

Testbilder, die Adobes KI überprüft hat
Adobe

Testbilder, die Adobes KI überprüft hat

Außerdem kontrolliert die Software die Farben der Pixel. Dafür wird der Rot-, Grün- und Blauwert jedes einzelnen Bildpunktes untersucht. Daran lässt sich erkennen, ob Pixelbereiche mit dem exakt gleichen Farbmuster an einer anderen Stelle noch einmal auftauchen oder ob die Helligkeit aufgrund der Lichtquelle andere Werte ergeben müsste.

Die Wissenschaftler haben die künstlichen neuronalen Netze darauf trainiert, solche Manipulationsmuster zu erkennen, und für das Training insgesamt 42.000 Bildpaare erstellt, die jeweils aus Originalfoto und Fälschung bestehen. "Wofür ein Forensik-Experte Stunden braucht, kann in Sekunden erledigt werden", heißt es in einem Blogbeitrag von Adobe.

Täuschend echte Fake-Videos von Barack Obama

Doch trotz aller Fortschritte werden die Herausforderungen für Faktenprüfer immer komplexer. Denn moderne Software fälscht Bilder eben auch immer besser. Das gilt selbst für Videos. Einem internationalen Team aus Wissenschaftlern, darunter auch IT-Experten des Max-Planck-Instituts in Saarbrücken, ist es gelungen, beliebige Gesichter in Videos mit Schauspielern nahezu perfekt fernzusteuern.

Zwinkern, Stirn runzeln, Lippen bewegen: Die manipulierten Clips sehen selbst bei Prominenten wie dem ehemaligen US-Präsidenten Barack Obama und Queen Elizabeth II. täuschend echt aus. In der Studie geben die Forscher an, dass bei einer Befragung etwa die Hälfte von rund 140 Teilnehmern die manipulierten Videos für real gehalten hatte.

Für die 3D-Modelle der Gesichter mussten die Wissenschaftler nicht einmal die Köpfe der echten Promis scannen. Die Forscher erstellten die Masken einfach aus vorhandenen Videobildern und errechneten daraus die richtige Beleuchtung, Kieferbewegung und Faltenbildung. Mit dieser Entwicklung ist die nächste Stufe nach den "Deepfake"-Videos erreicht, mit denen vor einigen Monaten ein Reddit-Nutzer für Aufsehen gesorgt hatte, als er Gesichter von Promis auf die Körper von Darstellern in Porno-Videos montierte.

Mit den gefälschten Lippenbewegungen wären ganz andere Manipulationsversuche denkbar. Vor allem, wenn man auch die passenden Töne erzeugen kann. Dass so etwas möglich ist, hat wiederum Adobe schon im November 2016 vorgeführt. Das Projekt "Voco" zeigte, wie man Sprachaufnahmen so editieren kann, dass jedem Menschen ein beliebiger Text in den Mund gelegt werden kann.

insgesamt 7 Beiträge
Alle Kommentare öffnen
Seite 1
Mr.King 29.06.2018
1. KI braucht Venture Capital und Daten
Ein tolles Beispiel für den Einsatz von künstlicher Intelligenz (KI) und Machine Learning. Viele der Herausforderungen des Digitalen Zeitalters werden wir auch durch den gezielten Einsatz digitaler Technologie lösen können. Daraus ergibt sich ein riesiges Potential auch in unserer Hemisphäre. Adobe z.B. entwickelt Software in Hamburg und Basel. ABER: wir werden dieses Potential nur heben wenn wir gezielt investieren und unseren Umgang mit Daten neu denken. 2 Beispiele: Erstens: mytaxi gab es schon vor uber. Leider konnte mytaxi aber wegen Kapitalmangel nicht schnell genug global expandieren. So es heute die Nischenlösung in regulierten Märkten. Zweitens: unsere panische Angst beim Umgang mit Daten hat eine Rechtslage ermöglicht, die heute einseitig Google, Facebook und Amazon begünstigt. KI braucht Daten und wir können nur dann eine Führungsposition einnehmen, wenn wir den Umgang mit Daten verstehen, die Daten dann aber auch nutzen dürfen.
kerstinalpers 30.06.2018
2.
Zitat von Mr.KingEin tolles Beispiel für den Einsatz von künstlicher Intelligenz (KI) und Machine Learning. Viele der Herausforderungen des Digitalen Zeitalters werden wir auch durch den gezielten Einsatz digitaler Technologie lösen können. Daraus ergibt sich ein riesiges Potential auch in unserer Hemisphäre. Adobe z.B. entwickelt Software in Hamburg und Basel. ABER: wir werden dieses Potential nur heben wenn wir gezielt investieren und unseren Umgang mit Daten neu denken. 2 Beispiele: Erstens: mytaxi gab es schon vor uber. Leider konnte mytaxi aber wegen Kapitalmangel nicht schnell genug global expandieren. So es heute die Nischenlösung in regulierten Märkten. Zweitens: unsere panische Angst beim Umgang mit Daten hat eine Rechtslage ermöglicht, die heute einseitig Google, Facebook und Amazon begünstigt. KI braucht Daten und wir können nur dann eine Führungsposition einnehmen, wenn wir den Umgang mit Daten verstehen, die Daten dann aber auch nutzen dürfen.
Es gibt mehr, vor allem mehr von Wert als Geld, im Leben, auf der Welt ! Ihre Einstellung empfinde ich als widerlich, menschenfeindlich! Ansonsten: Mal ausnahmsweise etwas positives von ADOBE. Aber noch ist das ja so noch nicht im Gebrauch.
naklar261 30.06.2018
3. Interessant
Nur was wenn dieses neuronale Netzwerk eine echte Aufnahme als Fälschung identifiziert und umgekehrt? Wird Adobe so zum Herr über die Wahrheit?
syracusa 30.06.2018
4. Brave New World
"In der Studie geben die Forscher an, dass bei einer Befragung etwa die Hälfte von rund 140 Teilnehmern die manipulierten Videos für real gehalten hatte." Da fehlt die noch wichtigere Information: wie viele Teilnehmer haben die echten, unbearbeiteten Fotos für gefälscht gehalten?
shardan 30.06.2018
5. Schön.
Und sicherlich für z. B. Gerichte eine Hilfe, um z. B. ein manipuliertes Unfallfoto zu enttarnen. Als Mittel gegen Fake News allerdings ziemlich nutzlos. Die Fake Gläubigen akzeptieren, was in ihre Filterblase passt - jede Enttarnung als Fake wird dann als - was Wunder - Fake der Lügenpresse hingestellt. Merke: "Die Lüge ist dreimal um die Welt gelaufen, bevor die Wahrheit sich die Stiefel angezogen hat" (Terry Pratchett).
Alle Kommentare öffnen
Seite 1

© SPIEGEL ONLINE 2018
Alle Rechte vorbehalten
Vervielfältigung nur mit Genehmigung der SPIEGELnet GmbH


TOP
Die Homepage wurde aktualisiert. Jetzt aufrufen.
Hinweis nicht mehr anzeigen.