Alexa, Google Assistant und Siri lassen sich mit Musik austricksen

Amazon Echo Show
Amazon Echo Show (© 2017 Amazon )

Intelligente Sprachassistenten wie Alexa, Google Assistant und Siri bringen viele Vorteile, allerdings auch einige Risiken, wie Forscher von IBM sowie von amerikanischen und chinesischen Universitäten herausgefunden haben. Die Systeme lassen sich mit manipulierter Musik austricksen.

Die Sprachassistenten fielen in einem von der Cornell University veröffentlichten Feldversuch auf Befehle rein, die die Forscher für das menschliche Ohr kaum wahrnehmbar in Musik versteckten. Einige Verzerrungen könne der Hörer zwar wahrnehmen, würde diese aber nur als Fehler in der Wiedergabe abstempeln, sagte Carl A. Gunter von der University of Illinois zu The Register.

Sprachassistenten hören besser hin

Alexa, Google Assistant und Siri hingegen hörten heraus, dass sie E-Mails lesen oder die Tür öffnen sollen. Andere Befehle forderten die Sprachassistenten auf, bestimmte Nummern zu wählen oder Banküberweisungen vorzunehmen. Die Erkennungsrate der verschiedenen Befehle lag zwischen 60 und 100 Prozent.

Laut den Forschen ließe sich die Trickserei noch optimieren, damit beispielsweise ein Echo von Amazon die Kommandos noch besser – und der Nutzer sie gar nicht mehr – wahrnimmt. Einige Kollegen von Gunter würden daran schon intensiv arbeiten. Die beschriebenen Musik-Attacken seien theoretisch via Radio, Fernseher oder Mediaplayer möglich. Es sei davon auszugehen, dass Apple, Amazon und Google die Erkenntnisse nutzen werden, um ihre Dienste noch besser abzusichern.

Wie findet ihr das? Stimmt ab!
Weitere Artikel zum Thema