Amazon Echo und Google Home Wie Smartspeaker zu Wanzen werden

Berliner Sicherheitsforscher haben Apps entwickelt, mit denen sie Nutzer eines Amazon Echo oder Google Home unter Umständen unbemerkt abhören können. Die Kontrollen beider Unternehmen hatten versagt.
"Goodbye" - Google Home Mini

"Goodbye" - Google Home Mini

Foto: SPIEGEL ONLINE

Smarte Lautsprecher sollen nützliche Freund und Helfer sein, nicht heimliche Zuhörer. Doch Forscher der Berliner Security Research Labs (SRLabs) haben clevere Wege gefunden, die Nutzer eines Amazon Echo oder Google Home unbemerkt abzuhören. Ihre Methoden setzen eine gewisse Sorglosigkeit der Opfer voraus, sind aber brisant genug, um beide Unternehmen zu einer Reaktion zu zwingen.

Ausgangspunkt sind die sogenannten Skills für Alexa beziehungsweise die Actions für den Google Assistant, also die externen Apps für die virtuellen Assistenten in den smarten Lautsprechern. Luise Frerichs und Fabian Bräunlein, Sicherheitsforscher der SRLabs, haben harmlos erscheinende Skills und Actions entwickelt  und durch die Sicherheitskontrollen von Amazon und Google gebracht. Tatsächlich tun diese aber andere Dinge, als die Nutzer erwarten.

Ein Alexa-Skill etwa gibt sich vordergründig als Horoskop-App aus. Auf einen entsprechenden Sprachbefehl hin fragt Amazons Assistentin nach dem Sternzeichen und liest dann ein Horoskop vor. Nutzer können das mit dem Befehl "Alexa, Stopp" abbrechen, woraufhin die App sich mit einem "Goodbye" verabschiedet.

Doch nach Amazons verpflichtender Kontrolle und Freigabe des Skills änderten Frerichs und Bräunlein den Code im Hintergrund, ohne dass es eine erneute Überprüfung zur Folge hatte. Das Kommando "Stopp" sorgt danach weiter dafür, dass Nutzer ein "Goodbye" hören, doch das Programm bleibt aktiv. Nutzer, die das nicht bemerken und dann in Hörweite ein Gespräch beginnen, werden abgehört.

Das Kommando dazu geben sie unabsichtlich selbst: Der gefälschte Horoskop-Skill beginnt die Aufzeichnung, sobald jemand "Ich" oder ein anderes von den Sicherheitsforscher festgelegtes Wort sagt, das darauf schließen lässt, dass persönliche Informationen folgen. Es ließe sich aber ein ganzer Katalog von Wörtern hinterlegen, die das Abhören aktivieren würden, bis zu 2500 Wörter werden in Entwicklerforen genannt.

Zu sehen ist das in diesem Video .

Empfohlener externer Inhalt
An dieser Stelle finden Sie einen externen Inhalt von YouTube, der den Artikel ergänzt und von der Redaktion empfohlen wird. Sie können ihn sich mit einem Klick anzeigen lassen und wieder ausblenden.
Externer Inhalt

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Für den Google Assistant programmierten Frerichs und Bräunlein einen Zufallszahlengenerator. Auch dessen Code änderten sie nach der Überprüfung und Freigabe durch Google. Auf Kommando gibt der Generator eine zufällige Zahl aus und verabschiedet sich mit einem "Goodbye" sowie einem Ton, den jeder Nutzer als eine Art Ausschaltsignal interpretieren würde.

Doch auch in diesem Fall bleibt der Lautsprecher beziehungsweise die Action aktiv. Im Code hinterlegt ist dazu die Sprachausgabe von unaussprechlichen Unicode-Zeichen, der Google Assistant bleibt also stumm, weil er die Zeichenfolge nicht vorlesen kann. Allerdings wartet er nach der nicht hörbaren Sprachausgabe wieder auf ein Kommando des Nutzers. Kommt keines, wiederholt sich der Vorgang.

Sagt der Nutzer aber irgendetwas, zeichnet der vermeintliche Zufallszahlengenerator das auf und schickt es an den Server von Frerichs und Bräunlein. Ein bestimmtes Aktivierungswort ist dazu nicht nötig. Dann antwortet die App wieder mit eine kurzen Stille, um danach wieder auf weitere Befehle des Nutzers zu warten, auch wenn der gar nicht mehr mit dem Lautsprecher kommuniziert.

Auch hierzu gibt es ein Video der SRLabs .

Empfohlener externer Inhalt
An dieser Stelle finden Sie einen externen Inhalt von YouTube, der den Artikel ergänzt und von der Redaktion empfohlen wird. Sie können ihn sich mit einem Klick anzeigen lassen und wieder ausblenden.
Externer Inhalt

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Außerdem haben sich Frerichs und Bräunlein eine Phishing-Methode (genauer: Vishing ) ausgedacht, um an die Passwörter der Amazon- beziehungsweise Google-Nutzer zu kommen. Die entsprechenden Apps wurden wiederum nach der Überprüfung und Freigabe geändert und reagierten auf jede Frage der Nutzer mit einer Fehlermeldung. Diese besagte, dass die entsprechende Funktion derzeit nicht verfügbar sei.

Danach las die App wiederum nur unaussprechliche Zeichenfolgen vor, beispielsweise eine Minute lang. Nach dieser Phase der Stille spielte sie einen Hinweis ab, der lautete: "Für Ihr Gerät gibt es ein wichtiges Sicherheitsupdate. Bitte sagen Sie 'Start', gefolgt von Ihrem Passwort". Für unaufmerksame Nutzer musste das klingen, als ob die Aufforderung nicht mehr von der App, sondern direkt von Amazon kommt, wie in diesem Video zu sehen  ist.

Empfohlener externer Inhalt
An dieser Stelle finden Sie einen externen Inhalt von YouTube, der den Artikel ergänzt und von der Redaktion empfohlen wird. Sie können ihn sich mit einem Klick anzeigen lassen und wieder ausblenden.
Externer Inhalt

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Die beiden SRLabs-Experten haben also auf kreative Weise dafür gesorgt, dass ihre Apps für die Lautsprecher auch dann aktiv blieben und mithörten, wenn die Nutzer davon ausgehen konnten, dass die Konversation mit ihren Geräten eigentlich fürs Erste beendet ist. Dennoch gelten für die Abhör- und Phishingversuche mehrere Einschränkungen.

  • Erstens müssen die Opfer unter den Tausenden von Apps die bösartigen finden und benutzen. Karsten Nohl, Leiter der SRLabs, sagte dem SPIEGEL dazu: "Seine Opfer kann sich ein Krimineller nicht direkt aussuchen, dafür kann er aber Zielgruppen über die Skills definieren. Insoweit sind die bösartigen Skills ähnlich zu sehen wie bösartige Smartphone-Apps in einem App-Store, die darauf warten installiert zu werden."
  • Zweitens müssen die Opfer übersehen, dass aktive, also zuhörende Smartspeaker immer am Leuchten ihrer LED erkennbar sind - was abhängig von Standort und Raumbeleuchtung oder der Aufmerksamkeit der Nutzer durchaus vorkommen kann.
  • Drittens müssen sie in Reichweite der Mikrofone ihrer Lautsprecher bleiben, andernfalls klappt das Abhören natürlich nicht.
  • Viertens dürften die Opfer im Fall des Phishingversuchs nicht misstrauisch werden, wenn sie nach ihrem Passwort gefragt werden und es laut sagen sollen. Nohl ist sich aber sicher, dass so etwas vorkommt.

Auch Amazon und Google, die bereits vor einiger Zeit von den SRLabs informiert wurden, halten das Risiko für hinreichend realistisch genug. Ein Amazon-Sprecher teilte auf SPIEGEL-Anfrage mit: "Wir haben Schutzmaßnahmen ergriffen, um diese Art von Skill-Verhalten zu erkennen und zu verhindern. Skills werden abgelehnt oder entfernt, sobald ein solches Verhalten identifiziert wird." Wie diese Schutzmaßnahmen aussehen, wollte Amazon nicht verraten.

Fotostrecke

Smarte Lautsprecher im Test: Gadgets mit Alexa und Google Assistant im Vergleich

Foto: SPIEGEL ONLINE

Google-Sprecherin Lena Heuermann schrieb auf Anfrage: "Wir untersagen und entfernen jede Action, die gegen diese Richtlinien verstößt." Die von den Forschern entwickelten Actions habe Google gelöscht. "Wir setzen zusätzliche Mechanismen ein, um derartiges in Zukunft zu unterbinden."

Für die Nutzer von Smarthome-Geräten bedeutet der Erfolg der SRLabs, dass eine gewisse Aufmerksamkeit im Umgang mit den bequemen Alltagshelfern sinnvoll ist: Wenn sie Skills oder Actions benutzen wollen, sollten sie versuchen, sich über den jeweiligen Anbieter schlau zu machen.

Sie sollten von Zeit zu Zeit darauf achten, ob die LED an den Lautsprechern nur leuchten, wenn sie gerade in Gebrauch sind. Sie sollten wissen, dass Amazon und Google niemals über ihre smarten Assistenten nach einem Passwort für den Amazon- oder Google-Account fragen würden. Und sie sollten die Zwei-Faktor-Authentifizierung aktivieren, um ihre Accounts vor der Übernahme durch Fremde zu schützen. Amazons Anleitung dazu steht hier , die von Google gibt es hier .

Die Wiedergabe wurde unterbrochen.