In Musik versteckte Befehle lassen Alexa und Co Einkäufe tätigen

Einstellen Kommentar Drucken

Geheime Befehle in Musikdateien, YouTube Videos oder weißem Rauschen gefährden Ihr Zuhause und könnten es Hackern ermöglichen, Ihre sprachgesteuerten Geräte selbst zu aktivieren.

► Durch kleine Änderungen in Audio-Files konnten die Forscher den Klang manipulieren, den die Spracherkennungssoftware eigentlich hören soll.

Bastler haben es geschafft, sprachgesteuerte Assistenzsoftware mit Befehlen zu steuern, deren Frequenz so hoch ist, dass sie von Menschen nicht gehört werden können, wie die New York Times berichtet.

Sobald die Befehle in Ihren Haushalt eingeschleust und anerkannt werden, könnten sie außerdem dazu verwendet werden bestimmte Telefonnummern zu wählen, Fotos zu machen, persönliche Daten zu sammeln und Webseiten zu öffnen. Der Schritt zum Einsatz von Schadsoftware und Virenprogrammen ist da nicht weit.

Folge: Die Assistenten in Smartphones und smarten Lautsprechern wie Amazons Echo, Google Home oder Apples Homepod haben selbständig Websites geöffnet und Anrufe getätigt.

Wie wirken die Unternehmen den Schwachstellen entgegen?

Die New York Times zitiert jetzt eine Studie von Sicherheitsforschern der UC Berkeley. In der Praxis sind die Hürden allerdings recht hoch: Das "Hey Siri"-Kommando ist auf iPhones auf die Stimme des Nutzers geeicht und wichtige Kommandos sind nur im entsperrten Zustand des Gerätes gestattet".

Comments