Mittwoch, 3. Oktober 2018

Wie einfach Alexa manipuliert werden kann

Zuerst stelle ich euch Kaldi vor. Kaldi ist, wie Forscher an der Ruhr-Universität Bochum vermuten, ein wichtiger Bestandteil vieler Sprachassistenten, wie z. B. Alexa von Amazon.
So weit, so gut.


Professor Thorsten Holz vom Horst-Görtz-Institut für IT-Sicherheit an der RUB sprach dazu folgendes: „Wir könnten eine Audio-datei, etwa einen Song, der im Radio abgespielt wird, so manipulieren, dass sie den Befehl enthält, ein bestimmtes Produkt einzukaufen“.

Diese Audiosignale können in der Sprache, der Musik, in Tierstimmen... versteckt werden. Die wichtigste Erkenntnis dabei ist, dass Kaldi sie alle versteht – der Mensch allerdings, hört von alledem nichts.

Professor Dorothea Kolossa erklärt: „Wenn das Gehör damit beschäftigt ist, einen lauten Ton einer bestimmten Frequenz zu verarbeiten, können wir für einige Millisekunden auf dieser Frequenz andere, leisere Töne nicht mehr wahrnehmen“.

Werden einzelne Komponenten hinzugefügt, so klingt das für uns Menschen, wenn wir es überhaupt hören, wie ein Rauschen, welches im Gesamtsignal nicht auffällt. Für eine Maschine wie Alexa, ergibt dieses Signal sehr wohl einen Sinn.

Kurzfassung:
Der Mensch hört Aussage A, die Maschine allerdings auch die Aussage B.

Momentan „funktioniert“ dies nur, wenn die versteckten Botschaften direkt eingegeben werden. Schon bald könnte es allerdings „gelingen“ diese Botschaften mittels Lautsprecher zu übertragen. Die Forscher sind damit beschäftigt zu verhindern, dass es in diesem Bereich Missbrauch gibt.

Überlegt euch selbst, was alles möglich ist, wenn diese Botschaften auf Alexa einprasseln. Bestellungen von Waren, welche man gar nicht braucht und trotzdem bezahlt werden müssen, sind da erst der Beginn...

Seid wachsam...




Keine Kommentare:

Kommentar veröffentlichen