Alexa Skills birgt Security-Risiken

Alexas Antwort kommt nicht von Alexa

26. Februar 2021, 12:47 Uhr | Selina Doulah
© Pixabay

Wenn Alexa antwortet, antworten eigentlich externe Anbieter. Das haben Forschende der Ruhr Universität Bochum herausgefunden. Die »Skills« von Alexa bringen einige Security-Risiken und Datenschutzprobleme mit sich.

Mit den Sprachbefehlen »Alexa Skills« können User zahlreiche Extrafunktionen auf ihren Amazon-Sprachassistenten laden. Doch die bringen nicht nur Vorteile mit sich, sondern bergen oftmals Sicherheitslücken und Datenschutzprobleme. Amazon habe einige der Probleme gegenüber dem Forscherteam bestätigt und arbeitet nach eigenen Angaben an Gegenmaßnahmen.

In ihrer Studie haben die Wissenschaftler um Christopher Lentzsch und Dr. Martin Degeling erstmalig das Ökosystem der Alexa Skills untersucht. Diese Sprachbefehle werden nicht nur vom US-amerikanischen Tech-Unternehmen Amazon selbst, sondern auch von externen Anbietern entwickelt. User können sie direkt über einen von Amazon betriebenen Store herunterladen, teilweise werden sie auch automatisch von Amazon aktiviert. Aus den Stores in sieben Ländern erhielten die Forscher insgesamt 90.194 Skills und analysierten sie.

Dabei stellten sie signifikante Mängel für eine sichere Nutzung fest. »Ein erstes Problem besteht darin, dass Amazon die Skills seit 2017 teilweise automatisch aktiviert. Früher mussten User der Nutzung jedes Skills zustimmen. Nun haben sie kaum mehr einen Überblick darüber, woher die Antwort kommt, die Alexa ihnen gibt, und wer diese überhaupt programmiert hat«, erklärt Dr. Martin Degeling vom Lehrstuhl für Systemsicherheit der RUB. Dabei sei leider häufig unklar, wann welcher Skill angesteuert werde. Wer Alexa zum Beispiel um ein Kompliment bitte, könne eine Antwort von 31 verschiedenen Anbietern bekommen; welcher dafür automatisch ausgewählt wird, sei nicht direkt nachvollziehbar. Dabei können Daten, die für die technische Umsetzung der Befehle benötigt werden, ungewollt an externe Anbieter weitergeleitet werden.

Anbieter zum Thema

zu Matchmaker+

Neue Skills können unter falschem Namen eingestellt werden

»Wir konnten außerdem nachweisen, dass Skills unter falschem Namen veröffentlicht werden können. So stellen beispielsweise bekannte Automobilkonzerne für ihre smarten Systeme Sprachbefehle zur Verfügung. User laden diese im Glauben herunter, dass die Skills direkt vom Unternehmen stammen. Doch das ist nicht immer der Fall«, so Martin Degeling. Zwar prüfe Amazon in einem Zertifizierungsverfahren alle angebotenen Skills. Doch dieses sogenannte Skill Squatting, also das Übernehmen von schon vorhandenen Anbieternamen und -funktionen, falle oftmals nicht auf.

»In einem Versuch haben wir selbst Skills im Namen eines großen Unternehmens veröffentlichen können. Hier können durchaus wertvolle Informationen von Nutzenden abgegriffen werden«, erklärt der Forscher. Wenn also ein Automobilanbieter für sein Smart-System im Auto beispielsweise noch keinen Skill entwickelt hat, um die Musik im Auto lauter oder leiser zu machen, könnten Angreiferinnen und Angreifer dies unter seinem Namen tun. »Sie können das Vertrauen der User in den bekannten Namen und in Amazon ausnutzen, um persönliche Informationen wie Standortdaten oder Nutzerverhalten abzugreifen«, so Degeling. Kriminelle können aber nicht direkt verschlüsselte Daten abgreifen oder Befehle in bösartiger Absicht verändern, um das smarte Auto zu manipulieren, beispielsweise um die Autotüren zu öffnen. In Zukunft müssen Nutzende aber damit rechnen, dass es Angriffe ähnlich dem E-Mail-Phishing auch über Sprachassistenten geben wird.


  1. Alexas Antwort kommt nicht von Alexa
  2. So können Angreifer die Amazon-Kontrolle umgehen

Lesen Sie mehr zum Thema


Jetzt kostenfreie Newsletter bestellen!

Weitere Artikel zu Amazon Web Services

Weitere Artikel zu Datenschutz

Matchmaker+