Im Video: MacBook verblüfft mit autonomer Objekterkennung
Unter der Bezeichnung Neural Talk arbeiten Studenten der kalifornischen Stanford Universität an einer Software, die Bildinhalte erkennt und den Fotos eine entsprechende Beschreibung hinzufügt. Eine Reihe durchaus eindrucksvoller Beispiel findet ihr auf dieser Webseite.
Der Informatiker Kyle McDonald hat Neural Talk nun auf eine neue Ebene gehoben und ein Software-Tool programmiert, das die oben beschriebene Funktion in Echtzeit ausführt. Konkret kann er damit die Videoaufnahmen seiner Notebook-Kamera live analysieren. Im unten eingebetteten Video marschiert McDonald mit seinem aufgeklappten MacBook durch Amsterdam. Mit Blick auf die Tatsache, dass die Bilderkennung in Echtzeit arbeitet, sind die Ergebnisse mehr als eindrucksvoll.
All processing is done on my 2013 MacBook Pro with the NVIDIA 750M and only 2GB of GPU memory. I’m walking around with my laptop open pointing it at things, hence the shaky footage and people staring at themselves.
Ausführliche Infos sowie den Quellcode zum Projekt findet ihr auf GitHub.
Interessant aber gruselig ! Die nächste Ebene von „Orwell’s Big Brother“, obwohl wir da ja auch schon längst drüber hinaus sind …..
this is really scary !
Die Überschrift ist wohl nicht ganz korrekt: Nicht das MacBook erkennt die Objekte, sondern die Software auf dem Mac. Schon witzig, wie hier versucht wird, jede Errungenschaft indirekt Apple zuzuschieben, obwohl sie lediglich die Plattform liefern.
heul doch
Wat bist du denn für nen Vogel?
Geh zurück in deinen Keller.
Wahrscheinlich macht man so auch schneller auf seine Software aufmerksam, als wenn er gesagt hätte: „Hey sieh mal, mein tolle Software läuft auf einem Linux Notebook.“
Hierbei geht es ja nicht darum zu sagen, dass das Macbook das kann weil Apple es ihm beigebracht hat, sondern um zu zeigen was mit einem einfachen MacBook mittlerweile möglich ist.
Wobei ich eher davon ausgehe dass der Autor nur einen Grund gesucht hat das Video hier posten zu können. ;)
Ein „einfaches“ MacBook also?
Im Grunde ist das eigentlich eher schlecht für Apple. Denn er sagt quasi „seht her, Meine Software ist so effizient, die läuft so gar mit der extrem langsamen Hardware eines Apple Geräts“. :P
Nichts für ungut, aber den Zusammenhang zu Apple finde ich auch etwas lächerlich, die Hardware ist schließlich die selbe wie in PCs, mit dem Unterschied, dass man bei Apple das doppelte oder dreifache für die gleiche hardware zahlt, je nach Konfiguration. Ja, Macs kauft man nicht wegen der Hardware, sondern wegen der Software. Das ist mir klar und unterschreibe ich auch so.
Aber dann im gegenzug zu zeigen, wie viel „leistung“ in nem MacBook stecken würde ist in meinen Augen einfach etwas lächerlich. jeder weiß einfach, dass Apple in den macbooks noch nie besondere Hardware verbaut hat. Die CPU im aktuellen „MacBook“ (nicht das Pro) ist wohl das absolut schwächste, was Intel zu bieten hat. Das Teil könnte auch eine Tablet CPU sein. Das ist weder mittelklasse noch HighEnd, das weit, weit darunter.
Das einzige, was bei Apple wirklich leistungsfähig ist ist der Mac Pro sowie das iPhone und das iPad. Der Rest ist einfach nur Hardware auf Einsteiger/Office Niveau. Also bitte nicht „Mac“ und „Rechenleistung“ in einem Satz verwenden. Danke. :P
Sry. Hab irgendwie angenommen dass das comment unter Sinner seinem auch ein Aggressor ist und hab einfach den Namen kopiert ohne zu merken das es Horst selbst ist xD
Das ist genial! Es würde mir viel Arbeit bei der Bilderdatenbank ersparen. Wo bekommt man sowas?
Github?!
Oh wie krass ist das??? Das ist ein so großes Puzzlestück für die Entwicklung künstlicher Intelligenz!!! Das ist ja praktisch Bewusstsein. Das objektive erkennen von Gegenständen durch eine Linse und erste Einordnungen dazu. Das ist mehr als heftig meiner Meinung nach! Das geht über vieles hinaus wie zB eine einfache Drohne die erkennt „großer Gegenstand links, ich fliege rechts“. Das ist heftig!
„A man pointing a gun – police called“. Finds krass… Mal schauen wo es eingesetzt wird….
War ja klar das da siehst du deutsche in Amsterdam sind iv
Leute schaut euch mal die Seite an, die ist auch von ihm: http://www.exhaustingacrowd.co.....etherlands (No mobile devices)
Ok, ich nehme ein Laptop mit Kamera, nehme ein Video auf, lege zu jeder Szene einen Text drüber und stell das bei youtube rein.
Das ist so krass, das kann einfach nicht wahr sein.
NSA gefällt das
Genial für Menschen mit schwerer Sehbehinderung (in Kombination mit Sprachausgabe).
A man is taking a Kalaschnikow – sure? – no wait maybe it is a crutch – to late he is dead :O
Wow, sehr beeindruckend. Warum gibt er den Quellcode preis? Damit ließe sich eine Fotobibliothek erstellen oder richtig tolle Anwendungen machen. Oder ist das seine „Bewerbung“ bei Google?
So funktioniert Forschung. Nicht jede Erkenntnis muss geheim gehalten werden, damit man irgendwann mal ein tolles Start-up damit gründen kann.
Aber wie es der Zufall so will, hat der Autor schon sich zweimal im Rahmen eines Praktikums bei Google mit dem Thema beschäftigt. In erster Linie schreibt er, so weit ich das seinem Lebenslauf entnehmen konnte, aber gerade seine Doktorarbeit über das Thema.
Naja, das Thema ist nicht unbedingt neu, das kann taptapsee schon ziemlich lange. http://www.taptapseeapp.com
Spannend ist jedoch, dass hier die Erkennung autark und (fast) Echtzeit auf relativ schwacher Hardware läuft.
Nur das taptapsee „human crowdsourcing “ verwendet um die Bilder zu erkennen… das ist ein kleiner Unterschied.
Ich wundere mich, wie leichtfertig man Nachrichten Glauben schenkt. Wer erkennt denn bitte, ob das ein Hotdog ist?
Was soll das denn heißen? Der Code ist online, das kann gern jeder selbst ausprobieren. Tiefe neuronale Netze sind (fast) kein Hexenwerk, ein Hotdog zu erkennen ist noch deren leichteste Übung.
Das ist gar nichts im Gegensatz zu dem was echte Forscher in Unis schon in Bilderkennung erreicht haben.
Es gibt Bilderkennung und Szenenerkennung durch Grauwertberechnung. Wenn ihr das mal seht werdet ihr staunen. Bilder auf denen wir Menschen nix mehr erkennen, können Maschinen bereits in Echtzeit die dahinter liegende unkenntliche Szene rückberechnen und auswerten. Und die Beschreibung gleicht in etwa der aus dem Video