Chat mit Dokumenten möglich
LM Studio 0.3: Spielplatz für lokale KI-Modelle mit großem Update
Die für Privatanwender kostenlos erhältliche Mac-Applikation LM Studio hat den Sprung auf Version 0.3 hinter sich – das klingt erst mal nach nicht viel, ist jedoch ein signifikantes Update, das nicht automatisch installiert wird, sondern manuell geladen werden muss. Bestandsnutzer der App sollten am besten einen Blick auf diese Info-Seite zur Aktualisierung werfen.
Kostenlos für Privatanwender
LM Studio ist eine Desktop-Anwendung, die sich als integrierte Experimentier- und Entwicklungsumgebung für lokale KI-Sprachmodelle (LLMs) etabliert hat. LM Studio startete als Hobbyprojekt nach der Veröffentlichung der Llama-Modelle von Meta. Die Anwendung wurde konzipiert, um den Umgang mit LLMs auf lokalen Rechnern zu erleichtern und zu optimieren. Heute steht hinter LM Studio ein Team von sechs Entwicklern, die das Produkt kontinuierlich weiterentwickeln, Firmenkunden um den Kauf einer Lizenz bitten und Privatnutzer gratis bedienen.
LM Studio bietet eine universelle Plattform für die Arbeit mit LLMs und unterstützt eine Vielzahl von Formaten wie GGUF, was die Kompatibilität und Datenportabilität sicherstellt. Nutzer können die gespeicherten Daten direkt über den Datei-Explorer bearbeiten, was eine hohe Flexibilität gewährleistet. Ziel der App ist es, den Anwendern eine zugängliche Möglichkeit zu bieten, LLMs für ihre eigenen Zwecke zu nutzen, ohne dabei die Kontrolle über ihre Daten aufzugeben. Die Software läuft vollständig offline und verzichtet auf jegliche Telemetrie, was bedeutet, dass keine Daten an externe Server gesendet werden.
Chat mit Dokumenten möglich
Eine wesentliche Verbesserung der neuen Version 0.3 ist die Integration von “Retrieval Augmented Generation” (RAG), einer Methode, um relevante Informationen aus umfangreichen Dokumenten zu extrahieren und dem Sprachmodell bereitzustellen. Dies soll insbesondere bei der Verarbeitung längerer Texte hilfreich sein. Darüber hinaus wurden die Benutzeroberfläche überarbeitet, neue Designs wie Dunkel, Hell und Sepia wurden hinzugefügt, um die visuelle Anpassung zu erleichtern. Eine automatische Konfiguration der Hardwareparameter sorgt dafür, dass die Software optimal auf die Leistungsfähigkeit des jeweiligen Rechners abgestimmt wird.
Die Anwendung richtet sich sowohl an Entwickler als auch an Endnutzer, die Sprachmodelle lokal auf ihren Rechnern ausführen möchten, ohne dabei auf eine Internetverbindung angewiesen zu sein. LM Studio lädt nach dem ersten Start das Llama-3.1-Modell von Meta und benötigt dafür rund 5 Gigabyte freien Speicher.
Endlich support für eigene Dokumente (falls ich das jetzt nicht falsch verstanden habe). Mal sehen, wie groß diese sein dürfen…
Den Support für die eigenen Dokumente gab es vorher auch schon.
Allerdings reicht mein MacBook mit M2 nicht dafür aus um eine halbwegs schnelle und gute Antwort zu errechnen.
Mich würde mal interessieren, ob hier jemand mit besserer HW bessere Erfahrung hat
Hab’s mit Gemma 9B ausprobiert. Schnell ist es, liefert aber nutzlose Ergebnisse.
Was muss ich tun, damit das Ding auch PDF Dateien, die Bilder enthalten, verarbeitet?
Bilder bekommst du mit einem LLM nicht hin. Dafür brauchst du ein RAG, also die Kombination von mehreren AI Modellen. Ähnlich wie ChatGPT.
Das ruft im Hintergrund auch ein weiteres Tool (DallE) für die Bilderkennung auf.