Open-Source-Download
Chatd: Mac-App ermöglicht lokalen KI-Chat mit Dokumenten
Mit den Entwicklungen Schritt zu halten, die derzeit in Sachen Künstliche Intelligenz für neue Produkte, Projekte und Programme sorgen, ist herausfordernd. Im Durcheinander der aktuell herrschenden Goldgräberstimmung fallen jedoch immer wieder kleine Perlen auf, die es durchaus wert sind, genauer begutachtet zu werden.
Zu diesen zählt unserer Meinung nach auch das Open-Source-Projekt Chatd. Bei diesem handelt es sich um eine Mac-Anwendung, die ein attraktives Versprechen in den Raum stellt: Den lokalen Chat mit beliebigen Dokumenten.
KI-Textmodell wiegt 4 GB
Der Download setzt auf das quelloffene KI-Textmodell Mistral-7B, an dessen Erstellung auch Wissenschaftler des Facebook-Mutterkonzerns Meta mitgewirkt haben sollen. Chatd lädt den rund 4 GB großen Mistral-7B-Datensatz beim ersten Start komplett auf die Festplatte und ist anschließend auch ohne Internetverbindung voll einsatzfähig.
Abgelegt wird das KI-Textmodell übrigens im Verzeichnis „~/Library/Application Support/chatd“, das ihr bei einer Deinstallation der Anwendung ebenfalls wieder vom eigenen Mac tilgen solltet.
Lokaler Chat, nur auf Englisch
Ist das Modell eingebunden, lässt sich die Anwendung mit beliebigen PDF-Dokumenten füttern und kann diese anschließend zusammenfassen, über alle möglichen Details Auskunft geben und Fragen beantworten, die sich ausschließlich auf das zuvor geladene PDF beziehen.
In unseren Versuchen läuft dies mit englischsprachigen PDF-Dokumenten auch einigermaßen zügig und mit brauchbaren Ergebnissen ab. Auf Deutsch formulierte Fragen werden von dem Modell jedoch nicht verstanden und entsprechend auch nicht ausgewertet.
Chatd könnte damit vor allem bei sehr umfangreichen Dokumenten zur Hand gehen, um sich hier einen schnellen Überblick zu verschaffen und diese mit ausformulierten Fragen statt einzelnen Wörtern nach den für euch interessanten Stellen zu durchforsten.
Sehr cool und datenschutzkonform!
Übringens nicht für Intel Macs
KI zu dumm für Fremdsprachen,
Ich habe mal einen langen Text reingeladen und Fragen in englisch gestellt – das ist leider nicht überzeugend.
Spannend.
ChatD unterstützt das Einbinden von anderen Sprachmodellen via „Ollama“ (https://github.com/BruceMacD/chatd/blob/main/docs/select_a_custom_model.md).
Es scheint für Mistral-7B auch eine deutsche Version zu geben „EM German Mistral v01 – AWQ “ (https://huggingface.co/TheBloke/em_german_mistral_v01-AWQ).
Das wird ein WE Projekt oder hat sich hier damit schon jemand auseinander gesetzt?
Die deutsche Mistral Version nutze ich mit GPT4all, das ebenfalls ein spannende Einblicke in die lokal prozessierten GPT Welt gibt. Noch ist man von der Qualität eines ChatGPT V4 meilenweit entfernt, aber ChatGPT 3.5 war vor einem Jahr, als es released wurde, auch noch recht ungenau mit den Antworten.