Alexa spricht mit vielen Zungen

Hinter Amazons Sprachassistenz Alexa stecken Tausende Drittanbieter, die dank Amazon Skills wie Apps das Leben eines Nutzers erleichtern können. Das birgt aber auch erhebliche Risiken, wie Forscher der Ruhr Universität Bochum herausgefunden haben.

Sie heißen Kalorien Guru, Barkeeper oder Pollenflug und sagen einem Nutzer, wie viele Kalorien Lebensmittel haben, wie ein bestimmter Cocktail gemischt wird oder verraten Allergikern, welche Blütenpollen gerade in hoher Konzentration in der Luft sind. Auf fast alles kennt Alexa eine Antwort, wenn man den entsprechenden Dienst aus dem Store lädt. Was viele Nutzer nicht wissen, weil Alexas Stimme immer dieselbe ist: Die Antworten kommen nicht von Amazon, sondern von vielen Drittanbietern, der Plattform Amazon Skills zuliefern. Das ist bei Spachansagen nicht anders als wenn Nutzer in Googles und Apples Store eine App herunterladen.

Über 90.000 solcher Skills in sieben Ländern haben nun Forscher der Ruhr Universität Bochum näher untersucht. Daraus wird zum einen ersichtlich, dass Nutzer nicht mehr den Überblick erhalten, von welcher Quelle eine Information stammt. Wer Alexa zum Beispiel um ein Kompliment bittet, kann eine Antwort von 31 verschiedenen Anbietern bekommen. Welcher dafür von Amazon ausgewählt wird, sei nicht direkt nachvollziehbar. Die Auswahl erfolge automatisch. Zudem könnten die Daten, die für die technische Umsetzung der Befehle benötigt werden, ungewollt an externe Anbieter weitergeleitet werden, bemängeln die Wissenschaftler.

Noch bedenklicher: Skills können auch unter falschem Namen veröffentlicht werden. Eine solche Manipulation sei den Forschern gelungen. Sie haben einen Skill unter dem Namen eines großen und daher als vertrauenswürdig geltenden Konzerns zum Download angeboten. Ein Beispiel: Wenn also ein Automobilhersteller für sein smartes Audio-System noch keinen Sprachdienst entwickelt hat, um die Musik im Auto lauter oder leiser zu machen, könnte jemand darauf kommen, einen solchen Skill unter der Marke des Autoherstellers anzubieten. Kein Nutzer würde misstrauisch werden. Denn dieses Skill Squatting, also das Übernehmen von schon vorhandenen Anbieternamen und -funktionen, falle oftmals nicht auf.

Die Folge: Kriminelle können nicht direkt verschlüsselte Daten abgreifen oder Befehle in bösartiger Absicht verändern, um das smarte Auto zu manipulieren, beispielsweise um die Autotüren zu öffnen. In Zukunft müssen Nutzerinnen und Nutzer sogar damit rechnen, dass es Angriffe ähnlich dem E-Mail-Phishing auch über Sprachassistenten geben werde, warnen die Forscher der Ruhr Universität Bochum.

Außerdem stellten sie erhebliche Mängel in den Allgemeinen Datenschutzerklärungen der angebotenen Skills fest. So haben nur 24,2 Prozent der Skills überhaupt eine sogenannte Privacy Policy. In den besonders sensiblen Bereichen wie Kids sowie Gesundheit und Fitness sind es noch weniger. Gerade hier sollte es starke Nachbesserungen geben, fordert Martin Degeling vom Lehrstuhl für Systemsicherheit an der Ruhr Universität Bochum.

Bildquelle: RUB/Marquard

Die mit einem * markierten Felder sind Pflichtfelder.