Digitale Beweisaufnahme
Wie künstliche Intelligenz bei der Aufklärung von Kriegsverbrechen hilft
Fotos und Videos aus sozialen Netzwerken helfen zunehmend dabei, Kriegsverbrechen etwa in Syrien oder Myanmar aufzuklären. Menschenrechtsorganisationen nutzen dafür intelligente Software – und Streumunition aus dem 3D-Drucker.
In Reportagen, Analysen, Fotos, Videos und Podcasts berichten wir weltweit über soziale Ungerechtigkeiten, gesellschaftliche Entwicklungen und vielversprechende Ansätze für globale Probleme.
Wissenschaftler und Designer fertigen mit 3D-Druckern Schmuckmodelle, Prothesen, Häuserteile oder Organe, der US-Künstler und Tech-Experte Adam Harvey druckt stattdessen Streumunition, wie die »AO2.5RT«. Sie wurde noch in der Sowjetunion entwickelt, hat etwa die Größe eines American Football – und ist normalerweise hochexplosiv.
Mehr als hundert Staaten weltweit haben die Streumunition-Konvention unterzeichnet und sich verpflichtet, keine Streubomben mehr herzustellen, sie weiterzugeben oder zu lagern. Trotzdem werden sie etwa in Syrien oder im Jemen weiter abgeworfen. Die Bomben setzen viele kleine Sprengkörper frei, die sich über große Flächen verteilen – und keinen Unterschied zwischen Kriegsparteien und Zivilisten machen. Blindgänger, die nicht sofort explodieren, sind noch nach Jahrzehnten scharf und können Menschen verstümmeln oder töten.
Munition aus dem 3D-Drucker: Aufnahmen des bearbeiteten Modells dienen später dazu, einen Algorithmus zu trainieren
Foto: Adam Harvey / VFRAME.io
Eine echte Streubombe hat Adam Harvey, der in Berlin lebt, noch nie gesehen: Der 39-Jährige hat Details im Internet recherchiert, die Maße der Munition kalkuliert, indem er sie mit anderen Objekten auf Fotos und in Videos abgeglichen hat. Seine 3D-Modelle malt er an, fotografiert sie aus vielen Perspektiven, teils auch beschädigt – in Umgebungen, die Originalfundorten von echter Munition entsprechen, etwa auf sandigem Untergrund.
Mit den Aufnahmen trainiert Harvey einen Algorithmus, der zivilgesellschaftliche Initiativen künftig dabei unterstützen soll, Millionen von Fotos und Videos nach illegaler Streumunition zu durchforsten – um zu belegen, wer sie an welchen Stellen abgeworfen hat. »Sie wissen, wonach sie suchen«, sagt Harvey. »Das Tool hilft ihnen dabei, die Nadel im Heuhaufen zu finden.«
Streumunition, die etwa im Bürgerkrieg in Syrien eingesetzt wird, tötet und verletzt oft Zivilisten
Foto: Ibrahim Hatib / Anadolu / Getty Images
Digitale Beweise wie öffentlich zugängliche Aufnahmen aus sozialen Netzwerken spielen eine zunehmend wichtige Rolle, um Kriegsverbrechen aufzuklären – und automatisierte Bilderkennungsverfahren und andere KI-Software könnte ihre Auswertung beträchtlich beschleunigen.
»Die Verwendung von digitalen Open-Source-Informationen als Beweismittel ist in internationalen Menschenrechts- und Kriegsverbrecherprozessen noch relativ neu, entwickelt sich aber schnell zur Norm«, sagt die Menschenrechtsanwältin Lindsay Freeman vom kalifornischen »UC Berkeley Human Rights Center«. Ende vergangenen Jahres hat das Zentrum gemeinsam mit dem Uno-Kommissariat für Menschenrechte Richtlinien veröffentlicht, um Standards für digitale Ermittlungen zu etablieren.
Den syrischen Bürgerkrieg, der nun seit zehn Jahren andauert, betrachtet die Expertin als »ersten Social-Media-Krieg« – Regierung, Soldaten, Polizei, Rebellen, Bürger und Aktivistinnen fotografieren und filmen dort massenhaft den Alltag und Angriffe und verbreiten Inhalte über soziale Netzwerke, auch die Terrormiliz IS entwickelte eine professionelle Terror-PR-Strategie.
Augenzeuge mit Handy: Ein junger Syrer dokumentiert nach einem Luftangriff die Schäden
Foto: Bassam Khabieh / REUTERS
Syrien ist aber nur der Anfang eines viel größeren Trends: »Von Myanmar über den Jemen bis nach Venezuela sehen wir, wie Bürger und andere Akteure ihre Smartphones nutzen, um zu dokumentieren, was passiert«, beobachtet Freeman. »Es ist mittlerweile schwer vorstellbar, dass es irgendeinen internationalen Strafprozess gibt, der nicht auf die eine oder andere Weise auf solchen Informationen beruht.« Um Ermittlungen voranzutreiben, arbeiten Tech-Experten und juristische Teams immer häufiger eng zusammen.
Die Nichtregierungsorganisation Mnemonic spielt bei der Dokumentation von Kriegsverbrechen eine Schlüsselrolle – doch die Digital-Detektive ertrinken in der Bilderflut. »Wir versuchen gerade zu verstehen, welche Daten wir genau in den vergangenen zehn Jahren angesammelt haben«, sagt der 36-jährige Mnemonic-Gründer Hadi al-Khatib. »Wir hoffen, dass künstliche Intelligenz uns helfen kann, bestimmte Inhalte in unserer Datenbank zu identifizieren und unser Material sinnvoller zu organisieren.«
Als der unübersichtliche syrische Bürgerkrieg 2011 ausbrach, begann al-Khatib mit seinem Projekt »The Syrian Archive« Aufnahmen aus seinem Heimatland zu speichern, damit sie nicht verloren gehen – denn die Suche nach digitalen Beweisen ist ein Wettlauf gegen die Zeit.
Anfangs archivierte Hadi al-Khatib allein – heute hat Mnemonic 20 Mitarbeiter
Foto: HC Plambeck / HCPlambeck
Seit Terroranschläge im Westen zugenommen haben und die Täter soziale Netzwerke gezielt für ihre Propaganda nutzen, ist der Druck auf Techkonzerne wie Facebook gewachsen, Gewaltdarstellungen zu löschen. Die Community-Richtlinien wurden verschärft, auch soziale Netzwerke setzen auf KI-Software: Algorithmen filtern oder löschen häufiger und schneller Aufnahmen, die Waffen, Gewalt und Terror zeigen, von den Plattformen – doch dabei gehen auch wichtige Hinweise auf Verbrechen und Missstände verloren.
Die 20 Mitarbeiter von Mnemonic arbeiten bisher weitgehend manuell: Sie suchen in sozialen Netzwerken wie Facebook, YouTube, Instagram oder Twitter nach bestimmten Stichwörtern, Daten und Ereignissen, werten Messenger-Gruppen auf Telegram oder WhatsApp aus, erhalten aber auch Handyvideos, die ihnen unter anderem lokale Menschenrechtsaktivisten zuspielen. Das Team verifiziert die Inhalte dann auch mithilfe von Satellitenaufnahmen.
Die Archive zu Syrien, dem Sudan und zum Jemen enthalten bereits mehrere Millionen Fotos und Videos – zuletzt hat die Organisation eine Datenbank veröffentlicht, die gezielte Luftangriffe auf syrische Krankenhäuser belegt.
Zusammen mit Menschenrechtsanwälten vom »European Center for Constitutional and Human Rights (ECCHR)« oder der »Open Society Justice Initiative« versuchen die Digital-Forensiker zudem, Fälle vor Gericht zu bringen – eine Strafanzeige gegen das Assad-Regime und Beweise für Giftgasattacken in Syrien liegen derzeit beim deutschen Generalbundesanwalt.
In dem Material, das in den Archiven lagert, soll die »VFRAME«-Software von Adam Harvey in den kommenden Monaten verschiedene Typen von Streumunition identifizieren und sie kategorisieren. So wird sichtbar, in welchem Umfang bestimmte Akteure sie trotz der Konvention weiter für Attacken nutzen: »Die russische und die syrische Regierung leugnen bisher, dass sie in Syrien Streumunition gegen Zivilisten verwenden – sie sind aber die Einzigen in dem Konflikt, die diese Art von Waffen besitzen und sie dort einsetzen können«, sagt Hadi al-Khatib.
In Myanmar gehen Sicherheitskräfte brutal gegen friedliche Demonstrierende vor – auch mit scharfer Munition
Foto: Myat Thu Kyaw / NurPhoto / Getty Images
Im Herbst will das Team eine Datenbank zu Streumunition launchen, mit der Journalistinnen, aber auch Juristinnen recherchieren können. Harvey verfeinert derzeit die Trefferquote des Algorithmus mit weiterem Trainingsmaterial: »Der Algorithmus muss so zuverlässig sein, dass er Videos mit einer 80-prozentigen Wahrscheinlichkeit korrekt markiert«, sagt er – damit das Werkzeug nicht die Zeit des Teams verschwendet.
Für Nichtregierungsorganisationen ist die Anwendung von künstlicher Intelligenz noch ein Experimentierfeld. An vielen Stellen fehlt es an Zeit und Geld, um aufwendige KI-Projekte zu entwickeln, die für die speziellen Zwecke von Menschenrechtlern oder Umweltschützern sinnvoll sind. Dennoch gibt es einige kreative Ansätze, die das Potenzial zeigen.
Sound-Überwachungsanlagen filtern etwa Geräusche aus dem Regenwald, Algorithmen werten sie in Echtzeit aus – lokale Hilfstruppen werden alarmiert, wenn Kettensägen oder Schüsse auf illegale Holzfäller hinweisen. Forscher versuchen, Satellitenbilder automatisiert auszuwerten oder zukünftige Waldzerstörung zu kalkulieren. »Amnesty International« verband bei den Projekten »Decode Darfur« und »Decode the Difference« Crowdsourcing und künstliche Intelligenz, um Attacken im Sudan zu kartieren: Tausende Freiwillige suchten in Satellitenaufnahmen online nach Hinweisen wie zerstörten Dörfern.
Auch weniger spektakuläre KI-Anwendungen können Digital-Forensikern Vorteile verschaffen: Die Software »Samdesk« durchpflügt das Internet automatisiert und alarmiert das »Evidence Lab« von Amnesty International, wenn etwas passiert – wie die Gewalt in Äthiopien oder in Myanmar.
Auf einer übersichtlichen Plattform können Sam Dubberley und sein fünfköpfiges Team sich Augenzeugenberichte, Informationen aus sozialen Netzwerken wie Twitter oder Snapchat und lokalen Medien anzeigen lassen – und stoßen so schneller auf brisantes Material wie Videos oder Livestreams, die sie dann detailliert überprüfen
»Wir müssen sehr schnell reagieren, weil unser Ziel darin besteht, den Machtmissbrauch sofort zu stoppen«, sagt Dubberley. Jüngst bewies das Team mit einer Auswertung von 55 Videos etwa, dass Myanmars Militär mit scharfer Munition gezielt auf Demonstranten schießt.
Bei der Arbeit von Sam Dubberley, Leiter des »Evidence Lab« von Amnesty International, kommt es auf schnelle Reaktionen an
Foto: Amnesty International
Die Analyse der Videos und ihr Abgleich mit Satellitendaten findet hier allerdings noch nicht automatisiert statt: »Die Techniken des maschinellen Lernens sind noch nicht weit genug entwickelt, um sie in der Hitze des Gefechts einzusetzen«, glaubt Dubberley. »Ich wünschte, wir hätten mehr Zeit für Experimente – dann würde ich mir ansehen, inwieweit man mit Machine Learning Satellitenaufnahmen auswerten kann oder Algorithmen in Tausenden Videos aus Afrika Militärfahrzeuge und gepanzerte Fahrzeuge erkennen können.«
Harveys Software für Streumunition soll zukünftig genau solchen Zwecken dienen – und irgendwann nicht nur Streumunition, sondern auch weitere Objekte wie bestimmte Fahrzeugtypen, andere Waffen und Munition, Flugzeuge oder Krankenhäuser aufspüren.
Dieser Beitrag gehört zum Projekt Globale Gesellschaft
Unter dem Titel Globale Gesellschaft berichten Reporterinnen und Reporter aus Asien, Afrika, Lateinamerika und Europa - über Ungerechtigkeiten in einer globalisierten Welt, gesellschaftspolitische Herausforderungen und nachhaltige Entwicklung. Die Reportagen, Analysen, Fotostrecken, Videos und Podcasts erscheinen im Auslandsressort des SPIEGEL. Das Projekt ist langfristig angelegt und wird über drei Jahre von der Bill & Melinda Gates Foundation (BMGF) unterstützt.
Ein ausführliches FAQ mit Fragen und Antworten zum Projekt finden Sie hier.
Die Bill & Melinda Gates Foundation (BMGF) unterstützt das Projekt über drei Jahre mit einer Gesamtsumme von rund 2,3 Mio. Euro.
Ja. Die redaktionellen Inhalte entstehen ohne Einfluss durch die Gates-Stiftung.
Ja. Große europäische Medien wie "The Guardian" und "El País" haben mit "Global Development" beziehungsweise "Planeta Futuro" ähnliche Sektionen auf ihren Nachrichtenseiten mit Unterstützung der Gates-Stiftung aufgebaut.
Der SPIEGEL hat in den vergangenen Jahren bereits zwei Projekte mit dem European Journalism Centre (EJC) und der Unterstützung der Bill & Melinda Gates Foundation umgesetzt: Die "Expedition Übermorgen" über globale Nachhaltigkeitsziele sowie das journalistische Flüchtlingsprojekt "The New Arrivals", in deren Rahmen mehrere preisgekrönte Multimedia-Reportagen zu den Themen Migration und Flucht entstanden sind.