ifun.de — Apple News seit 2001. 39 268 Artikel

Mit dem Laser durchs Fenster

Forscher täuschen Sprachassistenten mithilfe von Lichtstrahlen

Artikel auf Mastodon teilen.
24 Kommentare 24

Einer Forschergruppe ist es gelungen, mithilfe von Laserstrahlen Kommandos an Sprachassistenten wie Siri, Alexa oder den Google Assistant zu übermitteln. Unhörbar und nahezu auch unsichtbar, teils auch durch Fenster hindurch. Allerdings erfordert das Verfahren einen verhältnismäßig großen Aufwand und darf somit aktuell eher als warnendes „Proof of Concept“ verstanden werden. Details zu den Erkenntnissen wurden unter dem Titel „Light Commands“ veröffentlicht.

Sprachassistent Mit Laser Und Lichtkommandos Hacken

Das Experiment gründet auf der Tatsache, dass ein Mikrofon erfasste Geräusche in elektrische Signale wandelt und vergleichbares auch bei intensiver Lichteinstrahlung geschieht. Mithilfe von Laserstrahlen gelang es den Forschern so, die Mikrofone der Sprachassistenten zu täuschen. Und zwar nicht nur bei Geräten wie dem Amazon Echo oder Google Assistant, sondern auch bei Smartphones oder beispielsweise einem iPad.

Laser sendet Sprachbefehle

Mithilfe von bestimmten Lichtfrequenzen können gezielt Sprachkommandos imitiert und die Assistenten so zu Reaktionen veranlasst werden. Besonders kritisch wäre hierbei natürlich das automatische Öffnen von Türen oder Garagentoren. Dies gelang abhängig vom Gerät teilweise auch aus größerer Entfernung, so reagierten Smart Speaker auf einen starken Laserstrahl wohl aus bis zu 50 Metern – in Einzelfällen sogar aus über 100 Metern, ein iPhone aus immerhin zehn Metern, bei den getesteten Android-Telefonen mussten die Forscher auf knapp fünf Meter ran. Die Fensterbank scheint also kein besonders guter Platz für das Aufstellen eines smarten Lautsprechers.

Wenngleich die praktische Umsetzung dieser Erkenntnisse hohes Fachwissen und Aufwand erfordert, sollten die Hersteller das Wissen darüber zur Verbesserungen ihrer Produkte verwenden. Google und Amazon haben auf Anfrage des Magazins Wired dann auch bestätigt, dass sie die Ergebnisse entsprechend auswerten, Apple hat eine Stellungnahme verweigert.

Dieser Artikel enthält Affiliate-Links. Wer darüber einkauft unterstützt uns mit einem Teil des unveränderten Kaufpreises. Was ist das?
06. Nov 2019 um 07:55 Uhr von Chris Fehler gefunden?


    Zum Absenden des Formulars muss Google reCAPTCHA geladen werden.
    Google reCAPTCHA Datenschutzerklärung

    Google reCAPTCHA laden

    24 Kommentare bisher. Dieser Unterhaltung fehlt Deine Stimme.
  • Das Apple nicht mal ein „wir werden und das ansehen“ rausbringt, zeigt von nicht gerade von einer gewissenhaften und vorausschauenden PR-Abteilung.

  • Das ist mal wieder eine Erkenntnis die keiner braucht…
    die Hälfte der Bevölkerung lässt im Winter das Fenster gekippt, am besten in der Nacht und ohne Rollläden. Ich glaube da braucht niemand über die „Gefahr“ der Alexas oder Siris diskutieren…
    Wir werden wirklich immer bekloppter…

  • Ich finde diese Hacking-Berichte immer wieder faszinierend. Im Grund machen die Geräte ja genau das was sie sollen: Sie reagieren auf entsprechende Eingaben mit der Ausführung der zugehörigen Kommandos.

    Das Problem ist nur, dass „genau das was sie sollen“ nicht dasselbe ist wie das „was die Entwickler dachten, was sie tun sollen“. Die Aufgabe der Hacker ist es also „nur“ herauszufinden welche Abweichungen es zwischen der „gewünschten/angestrebten“ Funktion und der tatsächlichen Funktion gibt um diese dann auszunutzen.

    Auf die Idee die Mikrofone per Laser zu bedienen muss man erst einmal kommen. Respekt vor dem technischen Verständnis und Einfallsreichtum.

  • Das zeigt ja eigentlich nur mal eindrucksvoll, vor Allem für technisch/programmiertechnisch unbedarfte, an was alles gedacht werden muss. Und dass auch bei Software Updates/Neuerscheinungen nicht alles rund laufen kann. Siehe Fingerabdrucksensor, FaceID usw.
    meinen vollen Respekt für die Pinky and Brains.

  • Also beim Google Home sehe ich ja oben die Mikrofonöffnungen und auch Alexa hat diesen Ring an dem man die Mikrofone deutlich vermuten kann. Aber der HomePod ist ja von außen mit einem Stoff über mehrere Ebenen überzogen… So wie es scheint muss der Laser irgendwie direkt auf das Mikrofon leuchten oder nur in dessen Nähe? Wäre das denn beim HomePod möglich?

    • Schau dir doch noch mal die eingebundenen Fotos im Artikel an. Es reicht wenn der Laser das Gerät in der Nähe des Mikrofons trifft.

      • Naja, wirklich? Oder ist der Laserstrahl einfach nur so groß um eine höhere Wahrscheinlichkeit zu haben auf jeden Fall auch die Mikrofone zu treffen?

      • „The positioning didn’t need to be especially precise; in some cases they simply flooded the device with light.“

        Klingt aber trotzdem so als wäre der HomePod mit seinem Stoff und stabilem Innenleben gut davor geschützt. Der Artikel geht auch nur auf Alexa und Google Home ein, es werden auch iPhones erwähnt, die aber immer eine Autorisierung durch Touch/Face ID danach erfordern und daher auch gut geschützt sind.

  • Ja gibt auch sehr viele Einbrecher, die derart intelligent sind. Wieder mal Bildzeitung hier. Panik vor nichts.

  • Wenn man nichts anders zu tun hat, dann macht man halt solche Tests und scheucht alle auf. Oh Mann

  • Redet mit. Seid nett zueinander!

    Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

    ifun.de ist das dienstälteste europäische Onlineportal rund um Apples Lifestyle-Produkte.
    Wir informieren täglich über Aktuelles und Interessantes aus der Welt rund um iPad, iPod, Mac und sonstige Dinge, die uns gefallen.
    Insgesamt haben wir 39268 Artikel in den vergangenen 8427 Tagen veröffentlicht. Und es werden täglich mehr.
    ifun.de — Love it or leave it   ·   Copyright © 2024 aketo GmbH   ·   Impressum   ·   Cookie Einstellungen   ·   Datenschutz   ·   Safari-Push aketo GmbH Powered by SysEleven