c't 15/2018
S. 68
Hintergrund
Proof of Concept/Sprachassistent
Aufmacherbild

Wie Alexa lügen lernt

Akustische Man-in-the-Middle-Attacke gegen Amazon Alexa

Per Ultraschall lassen sich Alexa-Anfragen stören und manipulieren. Ein Proof of Concept belegt: Die lügende Alexa ist ein technisch realisierbares Szenario. Ein Besuch bei Darmstädter Sicherheitsforschern.

Eine Aussage, die beunruhigt: Alexa könnte durch Hacker kompromittiert werden. So lassen sich beispielsweise Smart-Home-Anwendungen manipulieren. Bittet der Anwender etwa: „Alexa, schließe die Haustür!“ So antwortet Alexa in diesem Fall nach kurzem Zögern: „Ich habe die Haustür geschlossen.“ Tatsächlich wurde sie aber geöffnet. Selbst von Alexa verlesene Protokolleinträge können gezielt gelogen sein. Dabei kommen die Antworten direkt vom Amazon Voice Service (AVS), Stimme und Sprechweise sind original.

Eine derartige Konfiguration kann man am System Security Lab des CYSEC an der TU Darmstadt im Laborbetrieb beobachten. Das Wissenschaftler-Team um Prof. Ahmad-Reza Sadeghi hat einen Proof of Concept konzipiert und aufgebaut, mit dem ein Echo-Lautsprecher kompromittiert wird. Ihre Erkenntnisse haben sie am 27. Juni auf der Design Automation Conference in San Francisco erstmals der Öffentlichkeit vorgestellt. Prinzipiell seien alle Alexa-Smart-Speaker auf diese Weise angreifbar.

Für eine akustische Man-in-the-middle-Attacke gegen einen Sprachassistenten müssen drei Bausteine realisiert werden. Zum einen muss die ursprüngliche Anwender-Frage blockiert werden. Zugleich muss der Angreifer diese Anfrage selbst auffangen und analysieren und schließlich muss er unbemerkt eine manipulierte Anweisung an den Sprachassistenten übermitteln.

Video: Alexa lügt – Demo am Systems Security Lab der TU Darmstadt

Unhörbare Sprachkommandos

Phase Drei, die unbemerkte Übermittlung von Sprachkommandos, ist schon früh gelöst worden. Bereits im vergangenen Jahr hat ein Forscherteam der chinesischen Zhejiang University in Zusammenarbeit mit der Princeton University eine einfache Angriffsmöglichkeit auf Sprachassistenten wie Amazons Alexa, Apples Siri und Googles Assistant mittels Ultraschall dargestellt. Bei der sogenannten Dolphin-Attacke werden akustische Anweisungen in Ultraschall-Frequenzen an den Sprachassistenten übertragen, für das menschliche Gehör sind diese nicht wahrnehmbar. Diese Frequenzen lassen sich sowohl durch im Handel erhältliche Hochtöner erzeugen als auch von zahlreichen Mikrofonen aufnehmen. In den Versuchen der Wissenschaftler wurden die per Ultraschall übertragenen Sprachbefehle sicher erkannt.

Videos