Open-Source-Modelle auf Tastendruck
HuggingChat für macOS startet: Verschiedene KI-Modelle auf dem Mac
Das US-amerikanische Unternehmen Hugging Face hat damit begonnen eine öffentliche Betaversion von „HuggingChat für macOS“ zu verteilen, eine neue KI-Chat-Applikation für Mac-Nutzer. Die Software soll es ermöglichen, verschiedene Sprachmodelle, darunter Metas Llama und weitere Open-Source-Modelle, direkt auf dem Desktop zu nutzen. HuggingChat macOS richtet sich an Anwender, die auf einfache Weise mit KI-Modellen interagieren möchten und daran interessiert sind die KI-Modelle lokale auszuführen.
Excited to release HuggingChat 💬 – a native macOS app that brings powerful open-source language models straight to your desktop – with markdown support, web browsing, code syntax highlighting and much more! pic.twitter.com/PdC11WUzEp
— Cyril Zakka, MD (@cyrilzakka) September 24, 2024
Nach Angaben des Unternehmens bietet die Anwendung eine native Chat-Oberfläche, die speziell für macOS entwickelt wurde. Im Funktionsumfang ist die App dabei vergleichbar mit der Mac-Anwendung von ChatGPT und bietet die Möglichkeit, per Tastenkombination (standardmäßig Shift + Command + Return) auf das Chat-Interface zuzugreife, um direkt mit einem ausgewählten KI-Modell zu interagieren. HuggingChat unterstützt aktuell mehrere Sprachmodelle, darunter Metas Llama, Mistral, Mixtral, und Microsoft Phi-3-mini.
Kompatibilität und Anpassungsoptionen
Im Gegensatz zu ChatGPT for macOS, das nur auf Macs mit Apple-Prozessoren und erst ab macOS 14 Sonoma läuft, unterstützt HuggingChat für macOS sowohl Intel- als auch Apple-Prozessoren. Zu den bereits angebotenen Funktionen gehören unter anderem die Möglichkeit, das Erscheinungsbild zwischen Hell- und Dunkelmodus zu wechseln, Syntax-Highlighting und eine Markdown-Vorschauen.
Die Anwendung befindet sich in der aktiven Entwicklung und wie gesagt mitten in ihrer Beta-Phase, kurzfristige Umbauten sind also wahrscheinlich. HuggingChat für macOS kann über das offizielle GitHub-Repository von Hugging Face heruntergeladen werden.
Nutzung und Zukunftsaussichten
HuggingChat macOS erfordert keine kostenpflichtige Mitgliedschaft bei Hugging Face, allerdings ist eine Anmeldung erforderlich. Laut dem Entwicklerteam ist die Software für eine breite Nutzerschaft konzipiert, wobei ein besonderer Fokus auf möglichen privaten und medizinischen Anwendungen liegt, etwa bei der Suche nach Behandlungsrichtlinien oder Bildinterpretationen. Aktuell lassen sich die Modelle noch nicht offline sichern, die lokale KI-Nutzung soll jedoch in Kürze möglich werden.
Gerade im Bezug auf Intel Macs und ChatGPT. Man kann jede Website über Teilen (in Safari) als „App“ im Dock ablegen. Was tatsächlich dem Gefühl mit einer nativen App zu arbeiten sehr sehr nahe kommt.
Danke für den Tipp :)
Auf GitHub gibt es die ChatGpt App für Intel Macs.
Ging mit ollama schon ewig, das Ding is, dass die llm’s auf lokalen Macs trotz m Chips und Metal Orts langsam sind. Und llama mit 70b kannst du eh nicht laufen lassen. Alles darunter ist gerade mal auf gpt-2 Level.
Sobald es lokal nutzbar ist werd ichs auch mal versuchen.
Genau das ist hiermit ja möglich. Ansonsten gäbe es z.B. auch Private LLM: https://apps.apple.com/de/app/private-llm-local-ai-chatbot/id6448106860
„Sanft“, kann sowohl „leise“ als auch „laut“ bedeuten? Häh, seit wann ist das so? Sanft steht auch für Laut?
Du kannst sanft die Lautstärke erhöhen :D
Ok, das ist korrekt :-)
Ich hab die IOS App ausprobiert, egal welches Modell ich ausgewählt habe, es wurde nur Blödsinn ausgespuckt. Ein Modell hat sogar nur ewig lange, unzusammenhängende Buchstabenreihen ausgegeben. So ist das Ganze nicht mal zum rumspielen zu gebrauchen.