Lügendetektor für Einreisekontrollen "Am Ende ist es eine Frage, was die Gesellschaft will"

Automatisierte Grenzkontrollen sollen die Einreise in die EU beschleunigen, dabei könnte auch ein Lügendetektor eingesetzt werden. Die Aufregung ist groß - doch ist sie auch berechtigt?

Ausschnitt aus einem Projekt-Flyer von iBorderCtrl
iborderctrl.eu

Ausschnitt aus einem Projekt-Flyer von iBorderCtrl


Wenn man kürzlich etwas über ein EU-Vorhaben zu automatisierten Grenzkontrollen las, ging es dabei oft vor allem um zwei Fakten. Erstens: Ein Lügendetektor könnte künftig Beamten an den EU-Grenzen dabei helfen, Reisende zu kontrollieren - als Teil des Forschungsprojekts iBorderCtrl, das vom EU-Programm Horizon 2020 gefördert wird. Zweitens: Bei ersten Versuchen außerhalb der Labors der Forscher erreichte der Detektor eine Genauigkeit von rund 75 Prozent.

Die Berichte warfen viele Fragen auf, in den sozialen Medien war die Empörung auch aufgrund manch reißerischer Schlagzeile groß. Doch was sollte man wirklich über das Projekt wissen?

Am besten schaut man zuerst auf das Thema Genauigkeit des Detektors. Eine Genauigkeit von 75 Prozent bedeutet nämlich in diesem Fall nicht, dass künftig 25 Prozent aller in die EU Einreisenden als "Lügner" klassifiziert und womöglich an einer Einreise gehindert werden. "Es handelt sich um einen Risiko-Score", erklärt Jim O'Shea von der School of Computing, Mathematics and Digital Technology der University of Manchester, der den Lügendetektorteil von iBorderCtrl leitet, "nicht um die Feststellung, dass jemand Lügner ist."

Im Rahmen von iBorderCtrl, das nächstes Jahr in eine neunmonatige Probephase mit freiwilligen Probanden startet, werden Reisende unter anderem von einem Avatar befragt, beispielsweise zum Inhalt ihres Gepäcks, ihrer Herkunft und ob es einen Angehörigen oder Freund gibt, der ihre Identität bestätigen kann - und welches Verhältnis sie zu dieser Person haben.

Es geht ums Verhalten

Das Lügendetektorsystem, das auf maschinellem Lernen basiert, "hört" dabei nicht zu: Es geht nämlich nicht um den Inhalt des Gesprochenen, sondern darum, wie sich der Betroffene verhält. Ob jemand mutmaßlich lügt, interpretiert das System unter anderem aus feinsten Regungen des Gesichts oder auch der Körpersprache, erklärt Jim O'Shea. Beachtet werde "beispielsweise, ob sich jemand im Stuhl vor- oder zurückbewegt".

Dieser Score fließt ein in einen Wert, der durch weitere Ergebnisse ergänzt wird, beispielsweise mit Daten aus der biometrischen Gesichtserkennung, Fingerabdrücken und Ähnlichem. Dieser Wert wiederum wird an die Grenzbeamten gemeldet, die dann entscheiden, ob sie die Person kontrollieren wollen.

Aber wieso braucht man einen Lügendetektor, wenn doch Gesichtserkennung, Fingerabdrücke und Visa-Kontrolle schon recht zuverlässig sind? "Es ist immer besser, mehrere Faktoren zu haben", sagt Anastasia Garbi, Koordinatorin des Projekts iBorderCtrl. "Je mehr Informationen Sie über mögliche Aspekte haben, die im Prozess gefälscht werden können, desto genauer ist dieser Prozess insgesamt." Sollten also gefälschte Pässe im Spiel sein, die nicht erkannt werden, wäre der Lügendetektor eine Art Back-up.

"Morphing kann wahnsinnig schwer erkannt werden"

Den Test solch neuartiger Systeme hält auch Bernhard Strobl vom Austrian Institute of Technology für sinnvoll, der ebenfalls an automatisch unterstützten Grenzkontrollen forscht, am aktuellen Projekt aber nicht beteiligt ist. "Die Gesichtserkennung ist zwar schon recht gut, aber sie kann umgangen werden."

Automatische Grenzkontrollen, bei denen Reisende mit einem biometrischen Reisepass diesen in einen Scanner legen können, gibt es schon heute. Ein Gesichtserkennungssystem überprüft dann, ob die Person die gleiche ist wie auf dem Foto.

Doch sogenannte Morphing-Angriffe überlisten die aktuelle Technologie: Wer illegal einreisen will, kann einen gültigen Ausweis nutzen und das Foto durch eine Mischung eines eigenen Bildes und des rechtmäßigen Passinhabers austauschen. "Morphing kann wahnsinnig schwer erkannt werden", sagt Bernhard Strobl.

Ergänzungen wie Plausibilitäts- und Biometriechecks (3D-Gesicht, Fingerabdruck, Handvenen, Iris) seien deshalb sinnvoll, um die Zuverlässigkeit solcher Systeme zu verbessern. "Ein adaptierter Lügendetektor könnte dazu zählen, sollte die Leistungsfähigkeit in diesem speziellen Umfeld bewiesen werden können." Doch auch hier stelle sich freilich die Frage, ob Reisende den Detektor "hereinlegen" könnten.

Strobl betont, dass die KI-gestützte Methode automatisierter Grenzkontrollen alle Reisenden entlaste: "Wir rechnen mit einer Verdoppelung des Passagieraufkommens in den nächsten Jahren. Deshalb ist ein Risk-Assessment im Vorfeld zur Entscheidungsunterstützung notwendig." Man dürfe das allerdings nicht mit Profiling verwechseln.

Lügt der Proband oder sagt er die Wahrheit?

Noch wichtiger ist allerdings, wie eingangs erwähnt, die Genauigkeit von 75 Prozent richtig zu interpretieren. Wäre es nämlich so, dass künftig bei 25 Prozent aller Reisenden ein Alarm auf dem Bildschirm des zuständigen Grenzbeamten aufleuchte und dieser zu einer genaueren Kontrolle aufgefordert würde, wäre ein solches System hinfällig: Die Beamten hätten noch mehr Arbeit, und die Schlangen an den Grenzen würden sich noch mehr verlängern.

"Ein solches System wäre nutzlos", sagt auch Bernhard Strobl, "es ergibt nur Sinn als Entscheidungshilfe, wenn die zuständigen Beamten wenige Alarme bekommen."

Die 75 Prozent beziehen sich auf den Mittelwert, mit dem das System bei den 13 Fragen richtig lag. Im Experiment wurden 32 Probanden insgesamt je 13 Fragen gestellt. Die Hälfte der Probanden wurde gebeten zu lügen, die andere sagte die Wahrheit. Das System berechnete aus verschiedenen Faktoren eine Vermutung für jede einzelne Frage: Lügt der Proband oder sagt er die Wahrheit? In 75 Prozent der Fälle lag das System durchschnittlich richtig in Bezug auf eine einzelne Frage.

O'Shea und seine Kollegen ließen sich auch in Bezug auf diese Faktoren von Psychologen beraten. "Vieles ist ja schon bekannt, woran man Lügen erkennt." All diese Faktoren fließen ins System mit ein, doch zusätzlich sucht sich maschinelles Lernen stets auch eigene Faktoren: Muster in den Trainingsdaten, die Menschen nicht auffallen würden. Dabei handelt es sich um Korrelationen in den Daten, also beispielsweise im Verhalten der Gesamtzahl aller "lügenden" Probanden. "Es gibt sicherlich mehr Faktoren, als bisher bekannt sind", heißt es dazu - nur leider verrät das System sie nicht, es ist die bekannte Blackbox-Systematik maschineller Lernverfahren.

Aber sehen Menschen, die nur so tun, als würden sie lügen, auch aus wie echte Lügner? "Wir haben uns von Psychologen beraten lassen, wie wir einen möglichst realistischen Versuchsaufbau machen können", sagt O'Shea. Dennoch sei das ein bekanntes Problem von künstlicher Intelligenz in diesem Zusammenhang: Menschen, die nur so tun als ob, haben sicherlich teils andere Mikrogesten als Lügner, die unter dem Stress stehen, wirklich erwischt zu werden, mit allen Konsequenzen, die daran hängen.

"Wenn wir mehr Daten haben, wird die Genauigkeit steigen"

Das System hat freilich weitere Schwächen, die unter anderem aus einer sehr geringen Probandenzahl entstehen und auch aus der allgemeinen Problematik, die moderne Systeme des maschinellen Lernens mit sich bringen: Sie brauchen große Mengen an Trainingsdaten.

"Doch das ist in unserem Fall sehr aufwendig", sagt Jim O'Shea. Er müsste sehr viele Menschen bitten, vor einer Kamera zu lügen oder die Wahrheit zu sagen. Da das System recht viele Faktoren identifiziert, kommt ein hoher Rechenaufwand hinzu.

Noch dazu sind die Probanden nicht besonders repräsentativ: Die Lügengruppe bestand aus zehn Männern und sieben Frauen, von denen 13 europäisch-weiß waren, während vier asiatische oder arabische Wurzeln hatten. Die Wahrheitsgruppe bestand aus zwölf Männern und drei Frauen, darunter sechs asiatische oder arabische Probanden und neun europäisch-weiße. Eine mögliche rassistische Verzerrung, die aus solchen Daten entstehen könne, habe man im Auge, versichert O'Shea.

"Wenn wir mehr Daten haben, wird die Genauigkeit steigen", sagt er noch, mit den aktuellen 75 Prozent sei er auch schon zufrieden: "Das ist eine tolle Genauigkeit, ich würde so ein System den Behörden auf jeden Fall empfehlen."

Es fehlt Transparenz

Die Blackbox-Problematik führt möglicherweise zu einem weiteren Problem, wie Tina Krügel sagt: Die Juristin am Institut für Rechtsinformatik der Uni Hannover ist mit ihrem Team für rechtliche und ethische Fragen des Projekts zuständig. Eigentlich sehe die neue Datenschutz-Grundverordnung vor, "dass Betroffene einer automatisierten Einzelfallentscheidung" Informationen über die dahinterliegende Logik erhalten müssen.

Das sei, sollte ein solches System im Bereich der Grenzkontrolle tatsächlich zum Einsatz kommen, kompliziert, denn hier sei natürlich auch die öffentliche Sicherheit betroffen. Zudem stelle sich die Frage, wie weit dieser Anspruch tatsächlich reiche, wie ausführlich die Informationen sein müssten.

Warum eine künstliche Intelligenz so oder so entschieden habe, sei nicht einfach nachvollziehbar. "Erklärbare KI ist gerade ein riesiger Forschungsbereich", sagt Krügel.

Auf dem Weg zu Avatar-Interviews

Aber besteht nicht die Gefahr, dass sich die Grenzbeamten von einem solchen Score zu sehr beeinflussen lassen und dann eben davon ausgehen, dass die Person tatsächlich lügt, anstatt unvoreingenommen an sie heranzutreten? "Das müssen wir den Betroffenen natürlich genau erklären", sagt Jim O'Shea: "Das ist ein Risiko-Score, der bedeutet nicht, dass die Person tatsächlich unehrlich ist." So müsse der Beamte stets auf Basis seiner eigenen Erfahrung und seiner Einschätzung beurteilen, ob er eine Kontrolle vornehme. "Er kann ja auch Reisende kontrollieren, die einen niedrigen Score haben."

Ob das in der Realität aber so oft vorkommt, darf bezweifelt werden. "Wenn man einen Risiko-Score vorgelegt bekommt, ist man geneigt, dem nachzugehen", sagt Tina Krügel. Ihre Gruppe hat deshalb verschiedene Grundlagen für das System vorgeschlagen: Datenkategorien, die zu einer Diskriminierung führen können, fließen nicht in den Risikowert ein. Neben dem Privacy-by-Design-Ansatz, der bereits implementiert ist, fordert Krügel für einen Echtbetrieb weitere Maßnahmen, etwa die Supervision durch eine Ethikkommission und ausführliche Schulungen der Beamten.

Ob das System am Ende Realität werde, sei noch lange nicht entschieden, betonen die Forscher. Die Zunahme grenzüberschreitender Kriminalität und des internationalen Terrorismus habe dazu geführt, dass Unterstützungssysteme erforscht würden, so Krügel. "Wir müssen sehen, was funktioniert und wie uns so ein System weiterbringt." Deshalb sei es gerade wichtig, dass das Projekt aus öffentlichen EU-Mitteln gefördert werde und keine Interessen der Wirtschaft einflössen. "Dann ist eine ausführliche ethische Beurteilung garantiert."

Auch der unabhängige Forscher Strobl lobt die ausgiebige Evaluation: "Ich bin überzeugt, dass die Kollegen sich das alles sehr genau ansehen."

"Am Ende ist es eine Frage, was die Gesellschaft will", sagt Tina Krügel. Auf diesem Standpunkt steht auch Strobl: "Wir arbeiten stets mit Ethikern, Soziologen und Betroffenen zusammen, um zu erfahren, wie die Akzeptanz ist." Durch Smartphones sei in den vergangenen Jahren die Akzeptanz für biometrische Verfahren wie Gesichtserkennung und Fingerabdrücke stark gestiegen. Wenn man es so sieht, könnten uns Avatar-Interviews bald wohl auch normal vorkommen.



insgesamt 3 Beiträge
Alle Kommentare öffnen
Seite 1
ArnoNyhm1984 19.11.2018
1. "Es entscheidet was die Gesellschaft will"?
Das wäre mir neu. Schon lange werden zunehmend mehr Entscheide jenseits des Bürgers entschieden -siehe als aktuellstes Beispiel nur der Migrationspakt, der bei einer Volksabstimmung sicherlich in allen europäischen Staaten mit Pauken und Trompeten durchfiele. Auch Lügendetektortests, Nacktscanner und vollautomatisierte biometrische big-brother-Methoden dürften bei einem echten gesamtgesellschaftlichen Entscheid wohl kaum mehrheitsfähig sein. Insofern stimmt der Titel nicht.
ruediger 19.11.2018
2.
Wenn wir Pseudowissenschaften wie Lügendektoren vor Gericht ablehnen (was wir erfreulicherweise noch tun), haben sie auch an der Grenze nichts zu suchen.
steinhai 23.11.2018
3. Unglaublich.
Was lassen sich diese Westlichen Regieme noch alles einfallen um die eigenen Bürger zu kontrollieren? Auch der Nacktscanner war und ist eine Frechheit was uns zugemutet wird. Es geht doch nicht um mehr Sicherheit. Sie Sicherheit ist auch ohne diese Spielereien zu erzielen. Es geht doch ein mal mehr um den Gläsernen Bürger. Viele Gesetze und Maßnahmen sind der Bevölkerung ja kaum oder gar nicht bekannt. Auch die Banken haben ein System entwickelt um unsere Daten und Konten einfach an Drittstaaten wie die USA zu übergeben. Jeder Harz IV darf ohne Zustimmung von Ämtern durchläuchtet werden und ungefragt auf Konten zugegriffen werden. Das Bankgeheimnis aufzulösen war ein erster Schritt um uns alle zu hintergehen. Harz IV war nur ein Beispiel. der ist betroffen! Jedes Handy kann ungefragt überwacht werden und jeder Computer. Heute ist man in jedem Bereich unter Beobachtung. Und nun sollen wir alle auch noch an Lügendetectoren angeschlossen werden? Die westlichen Politiker sollten sich mal alle anschließen lassen. Bei Trump würde das Gerät gleich explodierern. Bei dem Mann ist kein Wort wahr. Merkel und co würden das Gerät auch zur Verzweiflung treiben. Die Politiker sollten endlich diese ganzen Systeme zur Überwachung, bekämpfen. Aber lieber wird alles noch weiter getrieben um uns zu überwachen. Wer wirklich schlimmes im Schilde führt, weiß auch wie er vorgehen muss um etwas zu erreichen. Daher sind solche Systeme nichts weiter als Maßnahmen um uns Bürger zu überwachen und Profile zu erstellen die den Geheimdiensten die Arbeit erleichtern sollen. Die Politiker tun nichts als uns zu belügen. Leider
Alle Kommentare öffnen
Seite 1

© SPIEGEL ONLINE 2018
Alle Rechte vorbehalten
Vervielfältigung nur mit Genehmigung der SPIEGELnet GmbH


TOP
Die Homepage wurde aktualisiert. Jetzt aufrufen.
Hinweis nicht mehr anzeigen.