Apple Neural Engine
Künstliche Intelligenz: Apple baut spezialisierte Chips
Ganz gleich ob es um die Objekt-Erkennung auf euren Fotos, um die 2016 auf iOS und macOS eingeführten Proactive Suggestions oder Siris Logikverständnis geht: Wo möglich, setzt Apple nicht auf Serverfarmen in der Cloud, sondern auf das lokale Abarbeiten all jener Aufgaben, die im weitesten Sinn unter der Überschrift „Künstliche Intelligenz“ absortiert werden können.
Ein Datenschutz-Kompromiss, der mit nicht unerheblichen Einschränkungen einhergeht. Anwender, die ihr iPad neu aufsetzen und erstmals mit einer vorhandenen iCloud-Fotobibliothek verbinden, wissen gut wie heiß ihr Tablet werden kann.
Da sich Apples Tablet um die Erstellung eines Index, um das Zuordnen von Gesichtern und das Auffinden von über 5000 definierten Objekten in euren Bilder kümmert und diese Aufgabe nicht in die Cloud auslagert, ist man gut damit beraten, das Gerät in den ersten 24 Stunden an der Steckdose zu lassen. Die KI-Aufgaben, die lokal erledigt werden müssen benötigen viel Strom und viel Prozessor-Power.
Spezialisierter Chip übernimmt KI-Aufgaben
Dies soll sich zukünftig ändern. Wie der Wirtschafts-Nachrichtendienst Bloomberg berichtet arbeitet Apple aktuell an einem dedizierten Chip, der CPU und GPU zukünftig entlasten und sich ausschließlich um das Abarbeiten neuer KI-Aufgaben kümmern soll:
Apple is working on a processor devoted specifically to AI-related tasks, according to a person familiar with the matter. The chip, known internally as the Apple Neural Engine, would improve the way the company’s devices handle tasks that would otherwise require human intelligence — such as facial recognition and speech recognition, said the person, who requested anonymity discussing a product that hasn’t been made public. […] Apple devices currently handle complex artificial intelligence processes with two different chips: the main processor and the graphics chip. The new chip would let Apple offload those tasks onto a dedicated module designed specifically for demanding artificial intelligence processing, allowing Apple to improve battery performance.
Apples „Neural Engine“ würde sich damit in das schon jetzt beachtliche Lineup spezialisierter Chips aus Cupertino einreihen, die sich wie Apples Koprozessoren der M-Serie um Bewegungserkennung, wie die W-Serie um die Bluetooth-Konnektivität, oder wie die S-Serie um die Apple Watch und die Touch Bar der neuen MacBook Pro Modelle kümmern. Apple hat den Bericht auf Nachfrage nicht kommentiert.
Auch wenn ich das aus datenschutzgründen tatsächlich begrüße, ist es natürlich absurd.
Gerade ne KI lebt letzten Endes von Informationen…
Neutrale Netzwerke funktionieren eben als Netzwerke.
Google und Co gehen da schon den richtigen Weg.
Und jeder Intelligenzsprung sollte nun wirklich kein Update erfordern…
Selbstständiges lernen kann nur funktionieren, wenn man Input ohne Ende bekommt und die infos dann auch abeichen kann…
Wenn man sich Apple Fotos und Google anschaut, ist es faszinierend, was Google stetig lernt, nach welchen Begriffen zielsicher gesucht werden kann, die vor einigen Tagen noch keine Ergebnisse lieferten usw.
Das soll jetzt auch kein Pro/Contra Apple/Google Beitrag sein, sondern ein reiner Beitrag zur Funktion einer KI.
Sicher kann ein Chip einen gewissen Rahmen bieten, aber alle Anbieter die auf Neuronale Netzwerke setzen, werden dann in den nächsten Monaten weiter voranschreiten und der Abstand wird immer größer.
Auch wenn ich dir recht gebe, dass eine KI von Daten lebt, heisst das für mich nicht gleich, dass es absurd ist, diese Daten nicht gleich öffentlich in den Google-Topf zu werfen. Wie beim Thema Sicherheit bedeutet dies zwar eine langsamere Entwicklung als ohne Beachtung der Nebenwirkungen. Hier den richtigen Kompromiss zu finden ist eben nicht absurd, sondern kundenorientiert.
Wer sich die eigene KI im eigenen Netzwerk leisten kann, weiß wo der Hase hinläuft. Bleib bei den Kompromissen der Mainstream-Anbieter und deren SmartGeräten. „Entweder oder “ Das beste aus allem muss schon von den eigenen Programmierern oder gekauften All-In-One-Algorithmen kommen.
Apple und ihre „Gegenspieler“ dienen eher dazu, und daran zu gewöhnen. // Ende meiner gefühlten Wahrheit. /
Beweist mir das Gegenteil. ;)
.
Siri will bestimmt nicht, Alexa schaut in den Büchern nach und Cortana schmeisst deine Argumente zum Fenster raus.
Lass uns googel fragen.
Apple liefert ja ein bereits trainiertes neutrales Netz aus. „Lediglich“ die Objekterkennung läuft dann lokal auf dem Gerät.
Es ist richtig das man viele Inputs braucht um so ein Netz vernünftig zu trainieren, aber das macht Apple ja.
Hier ist jetzt die Frage was einem lieber ist. Das die Fotos lokal auf dem Gerät untersucht werden und damit dann auch das Gerät belasten oder ob man Leiber seine Daten an einen Server schickt der die Sachen schneller erledigt und das eigene Gerät nicht so unter Stress setzt.
Wobei man dann auch noch unterscheiden muss. Viele Fotos auf einmal zu analysieren ist auch eher ein Sonderfall und ob man deswegen seine Fotos durch die Gegend schicken möchte muss man abwägen.
Ich find den Ansatz den Apple fährt gut.
Ich stimme dir grundsätzlich zu. Doch eine schnelle interne KI kann Aufgaben übernehmen. Dazu braucht sie keine allzu detailieren Informationen sondern Regeln, Grundmuster, Strukturen oder andere, eher allgemein gültige „Gesetze“. Den Rest kann sie ableiten. Sobald es Veränderungen gibt, updatet sie ihr Hirn und arbeitet weiter. Wenn vom User zugelassen, übermittelt der Chip seine Infos oder „Fehler“ an Apple, die dann weiter optimieren können.
Die KI könnte aber auch eine lokale Hilfe sein, um die Gesichtserkennung zu verbessern. Das, was ja bei anderen mit Fotos manipuliert werden kann.
Prinzipiell finde ich den Ansatz gut, solche Dinge auf dem Gerät zu machen. Aber dann soll man bitte mit den sinnvollen Dingen anfangen. Siri gehört als erstes auf das Gerät. Wenn ich im Auto eine gute Edge Verbindung habe, kann ich niemanden Anrufen, weil Siri keine Verbindung zum Server hat. Wenn ich auf der Uhr einen Timer stellen will, kommt ständig „Bitte warten…“ oder Siri ist gar nicht verfügbar, weil ich das Handy gerne liegen lasse und dann etwas weiter weg bin.
Wenn Apple die Bilder auf dem Server analysiert und mir sagt, dass die die Daten nicht verwenden, ist das erstmal genau so vertrauenswürdig, als wenn das auf dem Handy verarbeitet wird, und die mir versprechen, dass die die Daten nicht trotzdem zum Server senden. Ich muss Apple vertrauen.
Verarbeitung auf dem Gerät hat nicht nur (wichtige) Datenschutzvorteile, sondern ist insbesondere im Ausland ohne Mobilfunkanbindung eine super Sache
Passend dazu: 1on1 mit DER künstlichen Intelligenz:
https://youtu.be/hdDHOV7k49g
Vielleicht sind es ja FPGAs, also programmierbare Chips, mit der Performance eines ASIC, aber rekonfigurierbar? Das wäre der Hit.
Blöd ist nur, dass die Gesichtserkennung und anschließende manuell Sortierung tausender Bilder auf all meinen Apple Geräten händisch neu gemacht werden muss. Zumindest einen Ergebnisabgleich sollte die Cloud zulassen.