Siri, Google Assistant, Alexa Forscher hacken Sprachassistenten mit Laserattacke

Dieser Angriff funktioniert sogar durch die Fensterscheibe: Wissenschaftler haben einen Weg gefunden, Sprachassistenten heimlich Befehle zu geben - per Laser. Die Forscher haben eine Schwachstelle entdeckt.

Google Home: Eines der Geräte, die Forscher per Laser gehackt haben
SPIEGEL ONLINE

Google Home: Eines der Geräte, die Forscher per Laser gehackt haben


Stellen Sie sich vor, Sie nutzen einen Sprachassistenten wie Siri oder den Google Assistant und plötzlich führt dieser Befehle aus, die Sie ihm nie gegeben haben. Befehle, die niemand im Raum ausgesprochen hat, denn Sie sind allein. Doch auf dem Gerät, das den Sprachassistenten beherbergt, fällt Ihnen ein kleiner Lichtpunkt auf.

Das Szenario klingt unheimlich - und jenseits von Forschungsexperimenten sind bislang glücklicherweise keine solchen Attacken bekannt. Unrealistisch ist es aber nicht. Das zeigen Erkenntnisse eines Wissenschaftler-Teams der University of Michigan und der Tokioter University of Electro-Communications, die jetzt ins Netz gestellt wurden. Die fünf Wissenschaftler zeigen unter dem Projektnamen "Light Commands", wie sich Sprachassistenten mit Lichtsignalen hacken lassen, per Laser.

Mit einem solchen Angriff, so skizzieren es die Forscher, könnten Sprachassistenten zum Beispiel Befehle zum Öffnen von Haus- oder Garagentüren oder für Online-Einkäufe gegeben werden - je nachdem, wie die Geräte am Einsatzort vernetzt sind. Der Nutzer könnte die eingeschleusten Befehle selbst nicht hören, sondern - sofern er denn überhaupt anwesend ist - nur die akustische Reaktion des Geräts darauf, die teils von Leuchtanzeigen ergänzt wird. Erkennen lässt sich die Attacke sonst noch an der Reflektion des eingesetzten Laserstrahls auf dem Zielgerät.

Angriffsbeispiel der Forscher als Kurzvideo

Prinzipiell sind viele Geräte gefährdet

Für die Attacke anfällig sind den Forschern zufolge zahlreiche weit verbreitete Geräte, auf denen der Google Assistant, Apples Siri bis oder Amazons Alexa läuft. Das liegt an der verbauten Technik. Der vorgestellte Angriff fokussiert sich auf sogenannte MEMS-Mikrofone, die in Smart Speakern, aber auch in Smartphones, verbaut sind und mit denen die Assistenten Sprachbefehle ihrer Nutzer erkennen können. Dabei wird der Sound in elektrische Signale umgewandelt.

Diese elektrischen Signale lassen sich den Mikrofonen jedoch auch entlocken, indem man sie Laserstrahlen unterschiedlicher Intensität aussetzt, fanden die Forscher heraus. Bei ihrem Angriff, der bislang nur in Testumgebungen erprobt wurde, zielten sie mit einem Laser auf ein Mikrofon, teils auch durch ein Fenster. Die Kommandos werden so - anders als die üblichen Sprachbefehle - unhörbar übermittelt. Es sei "möglich, Mikrofone so auf Licht reagieren zu lassen, wie sie auf Geräusche reagieren", sagte Forscher Takeshi Sugawara dem Tech-Magazin "Wired".

Erklärvideo der Forscher zu Lichtkommandos

Praktisch hat solch ein Angriff aber Grenzen, wie auch die Wissenschaftler selbst klarstellen. Zunächst einmal muss mit dem Laser auf das Mikrofon gezielt werden, was nicht immer leicht ist. Und selbst wenn es gelingt, würde in vielen Szenarien schon ein simples Wegstellen des Geräts vom Fenster die Attacke unmöglich machen.

Man braucht das passende Equipment

Zudem braucht ein Angreifer passendes, einige Hundert Euro teures Equipment, erst recht wenn er sich nicht in unmittelbarer Nähe zum Mikrofon befindet. Die Forscher berichten, dass ihnen auf einem Flur mitunter immerhin aus 110 Meter Entfernung eine Signalübermittlung gelungen sei - eine größere Entfernung sei nicht mehr getestet worden.

Weiteres Angriffsbeispiel der Forscher als Kurzvideo

Auf ihrer Website stellen die Forscher Untersuchungsergebnisse zu verschiedenen Geräten vor. So wird angegeben, welche Stärke ein Laser haben muss, damit der Angriff aus 30 Zentimeter Entfernung funktioniert. Beim Google Home etwa sind dies den Angaben zufolge 0,5 Milliwatt, bei einem Amazon Echo Plus der ersten Generation 2,4 Milliwatt, bei einem Echo Spot 29 Milliwatt. Bei einem Samsung Galaxy S9 (mit integriertem Google Assistant) werden mindestens 60 Milliwatt benötigt.

Mit einem solchen Laser sei beim S9 ein Angriff aus maximal fünf Meter Entfernung möglich, heißt es in einer Tabelle. Bei den meisten anderen Testgeräten habe ein Angriff aber auch mit mehr als fünfzig Meter Abstand zum Mikrofon funktioniert.

Eine Sprechererkennung schützt nicht unbedingt

Bei der Abwehr der Laserangriffe hilft es den Forschern zufolge übrigens nicht, an einem Gadget eine Sprechererkennung zu aktivieren - das Gadget also so einzustellen, dass es nur auf die Befehle einer bestimmten Stimme reagiert. Die Laserkommandos ließen sich auch bei solchen Geräten anwenden, heißt es. In der Regel beziehe sich die Sprechererkennung auch nur auf die Aufweckwörter für ein Gerät, wird weiter ausgeführt: Im Zweifel ließe sich also auch ein Befehl des echten Nutzers abwarten, bevor man eigenen Kommandos per Laser einschleust.

Ein sinnvoller Schutz wäre es den Forschern zufolge beispielsweise, wenn das Gerät vor dem Ausführen eines Befehls eine zufällige Frage an den Nutzer stellt und zunächst abwartet, ob diese korrekt beantwortet wird. Das würde zumindest Angreifer, die sich nicht in Hörweite des Geräts befinden, ausbremsen.

Auch seitens der Hardware könnten die Hersteller ihre Produkte besser gegen Laserattacken schützen, heißt es. Ein Ansatz, den die Forscher vorschlagen, ist der Einbau weiterer Mikrofone. Empfängt dann, wie bei der vorgestellten Attacke, nur ein einziges Mikrofon ein Signal, könnte das Gerät dies als Anomalie werten: Das Ausführen des Befehls könnte es dann verweigern.

Von Google und Amazon hieß es in einer Stellungnahme für "Wired", man werde die Forschungsergebnisse prüfen. Apple wollte dem Magazin zufolge keinen Kommentar zum Thema abgeben.

mbö



insgesamt 3 Beiträge
Alle Kommentare öffnen
Seite 1
shardan 05.11.2019
1. Und wieder...
Und wieder erweist sich eine alte Weisheit der Informatik als zutreffend: "Alles ist sicher - bis es gehackt wird". Jedes Verfahren, jede Verschlüsselung wurde zunächst als sicher (Laut Herstellern immer absolut sicher...!) bezeichnet - bis es denn doch geknackt wurde. Die ersten EC-Karten waren so sicher, dass die Banken und Sparkassen jegliche Haftung ablehnten - selbst Gutachten brachten keine Änderung. Bis zu dem Tag, an dem der Hack in einer TV-Sendung öffentlich gemacht wurde und der Druck auf Geldinstitute so groß wurde, dass man den Algorithmus ändern musste. Heutige Karten mit integriertem Chip sind erheblich schwerer zu knacken. Unmöglich? Nach mehr als dreißig Jahren als Informatiker habe ich an der Unmöglichkeit arge Zweifel. Sprachassistenten sind ein potentielles Einfallstor - heutzutage allerdings nur eines von Vielen. Derzeit sind Phishing und ähnliche Methoden noch lukrativer - das könnte sich jedoch ändern. Es hängt nur davon ab, welche Berechtigungen man dem Smartphone, Echo oder was auch immer erteilt.
touri 06.11.2019
2.
Zitat von shardanUnd wieder erweist sich eine alte Weisheit der Informatik als zutreffend: "Alles ist sicher - bis es gehackt wird". Jedes Verfahren, jede Verschlüsselung wurde zunächst als sicher (Laut Herstellern immer absolut sicher...!) bezeichnet - bis es denn doch geknackt wurde. Die ersten EC-Karten waren so sicher, dass die Banken und Sparkassen jegliche Haftung ablehnten - selbst Gutachten brachten keine Änderung. Bis zu dem Tag, an dem der Hack in einer TV-Sendung öffentlich gemacht wurde und der Druck auf Geldinstitute so groß wurde, dass man den Algorithmus ändern musste. Heutige Karten mit integriertem Chip sind erheblich schwerer zu knacken. Unmöglich? Nach mehr als dreißig Jahren als Informatiker habe ich an der Unmöglichkeit arge Zweifel. Sprachassistenten sind ein potentielles Einfallstor - heutzutage allerdings nur eines von Vielen. Derzeit sind Phishing und ähnliche Methoden noch lukrativer - das könnte sich jedoch ändern. Es hängt nur davon ab, welche Berechtigungen man dem Smartphone, Echo oder was auch immer erteilt.
Ich denke auch, das es absolute Sicherheit sehr schwer zu erreichen ist. Zu Ihrem Beispiel mit den Bankkarten hatte ich vor einigen Monaten auch einen interessanten Fall. Bei einem Arbeitskollegen wurde ein Kreditkartenbetrug begangen. Jemand hat es geschafft irgendwie eine Kopie der Karte zu erstellen und damit erfolgreich einzukaufen (in einem Schlecker und noch einem Geschäft). Aber das wirklich kuriose war, dass mein Kollege die Karte noch nie in Gebrauch hatte, da er sie erst seit kurzem hatte. Sie hatte also seinen Geldbeutel nie verlassen. Wobei ich mittlerweile eher einen Bankangestellten oder Postboten in verdacht habe, das die die Karte kopiert haben, bevor diese überhaupt erst angekommen ist.
GrafKrolock 06.11.2019
3. Laborbedingungen
Solange solcherart Angriffe in der Praxis schwieriger durchzuführen sind als ein simpler Wohnungeinbruch (ein geübter Schlossknacker bekommt ein Zylinderschloss lautlos binnen Minuten auf), machen mir solche Experimente wenig Sorgen.
Alle Kommentare öffnen
Seite 1

© SPIEGEL ONLINE 2019
Alle Rechte vorbehalten
Vervielfältigung nur mit Genehmigung


TOP
Die Homepage wurde aktualisiert. Jetzt aufrufen.
Hinweis nicht mehr anzeigen.