In neuen Apple-Prozessoren bereits gestopft
LeftoverLocals-Schwachstelle: Theoretischer Zugriff auf KI-Inhalte möglich
LeftoverLocals ist eine Schwachstelle in Grafikprozessoren von Apple, Qualcomm und AMD, mit deren Hilfe sich Daten aus deren Grafik-Speicher wiederherstellen lassen, die von anderen Prozessen erstellt wurden. Der Datenschutz von Grafikprozessoren spielte lange Zeit eine untergeordnete Rolle, weil es hier für Angreifer im Vergleich zum Hauptprozessor wenig zu holen gab. Moderne KI-Anwendungen nutzen diesen Bereich allerdings für ihre Rechenoperationen, was zur Folge hat, dass darüber verstärkt auch sensible private Daten der Nutzer verarbeitet werden.
Das Magazin Wired hat sich mit den hinter der Enthüllung stehenden Sicherheitsforschern Trail of Bits unterhalten. Diese wollen auf die Risiken aufmerksam machen, die sich mit der Verwendung der auch die Leistung von Grafikprozessoren nutzenden generativen Sprachmodelle (LLMs) ergeben. Die Sicherheitsforscher demonstrieren mithilfe einer Demo-Anwendung, dass unberechtigte Dritte auf diesem Weg an Inhalte aus Interaktionen mit KI-Anwendungen abzweigen können.
Die Sicherheitslücke an sich ist nicht neu, hat wie erwähnt in der Vergangenheit jedoch keine große Rolle gespielt. Angesichts der verbreiteten Nutzung von KI muss man dies nun erneut auf den Prüfstand stellen und die betroffenen Hersteller haben sofern möglich bereits reagiert.
Risiko eher gering – Aktuelle Apple-Prozessoren sind geschützt
Apple hat Wired zufolge bestätigt, Kenntnis von der Sicherheitslücke zu haben und hat diese in seinen aktuellen Prozessoren vom Typ M3 und A17 bereits behoben. Zumindest ein Teil der älteren Apple-Geräte ist den Sicherheitsforschern zufolge allerdings noch nicht geschützt, darunter das MacBook Air M2 oder auch das iPhone 12 Pro.
Panik scheint aber auch bei Besitzern dieser Geräte nicht angebracht. Um die Schwachstelle auszunutzen, ist direkter Zugriff auf die Zielgeräte nötig. Ist dies der Fall, könne man quasi mitlesen, wenn da gerade jemand einen LLM-Chat führt.
Der Sachverhalt verlangt sicherlich langfristig Beachtung. Aktuell scheint uns das Ganze angesichts des überschaubaren Risikos aber eher wie ein interessantes „Proof of Concept“.
Erstmal die Kommis gelöscht die sich drüber lustig machen dass noch die ChatGPT Anweisungen im Artikel standen :D
Im Kommentare löschen ist iFun ganz groß. Und wenn sich iFun mal dazu äußert, dann waren die Kommentare alle am Thema des Artikels vorbei. Es sei denn der Inhalt entspricht der politischen oder moralischen Vorstellung von iFun, dann kann man soweit vom Thema abdriften, wie man will. Aber sowas ist natürlich keine Zensur.
Nein, Kai. Das ist keine Zensur.
Bilde dich fort, bitte!
Der Einsatz ist ja nun auch nicht verwerflich.
Lang lebe Intel.