ifun.de — Apple News seit 2001. 39 489 Artikel

Kostenlos und auf Wunsch komplett lokal

AnythingLLM für Mac: Eine KI-App für alle KI-Bedürfnisse

Artikel auf Mastodon teilen.
14 Kommentare 14

Inzwischen gibt es eine ChatGPT-App für den Mac, eine offizielle Claude-Anwendung für den Desktop-Einsatz und einen nativen Mac-Download des KI-Recherchewerkzeuges Perplexity. Das Open-Source-Projekt AnythingLLM bietet eine Anwendung an, das diese KI-Anbieter, zusätzliche Optionen und lokale Modelle unter einer Oberfläche versammelt.

AnythingLLM

Unter anderem werden KI-Modelle wie GPT-4, Llama oder Mistral unterstützt, was eine Anpassung an unterschiedliche Anforderungen ermöglichen soll.

AnythingLLM bietet so eine flexible Lösung für den KI-Einsatz, der sich nach Angaben der Projektverantwortlichen vor allem auf die Verwaltung und Analyse von Dokumenten fokussiert. Die Anwendung lässt sich dabei gänzlich lokal installieren, sodass Nutzer ohne Cloud-Dienste und (nach dem Download der Modelle) auch ohne Internetverbindung arbeiten können. Setzt man nur auf lokale KI-Modelle bleibt die Datenverarbeitung vollständig privat und unter Kontrolle des Anwenders.

AnythingLLM Startscreen

Vor allem zur Dokumentenauswertung

AnythingLLM ist darauf ausgelegt, mit verschiedenen Dateiformaten wie PDFs und Word-Dokumenten umzugehen und diese in sogenannten “Workspaces” zu organisieren. Diese Workspaces agieren unabhängig voneinander, was eine klare Strukturierung und Verwaltung großer Datenmengen erlaubt.

Besonders für Unternehmen interessant ist die Docker-Version, die eine Multi-User-Umgebung mit individuellen Zugriffsrechten ermöglicht. Über eine API kann die Anwendung zudem in bestehende Systeme integriert werden, was eine flexible Anpassung an spezifische Bedürfnisse erlaubt.

AnythingLLM Screen

Kostenfreie Desktop-Version

Das Geschäftsmodell von AnythingLLM umfasst eine quelloffene, kostenfreie Desktop-Version sowie eine Cloud-Option ab 50 Dollar monatlich. Die Cloud-Version richtet sich an Unternehmen, die eine zentral verwaltete Instanz bevorzugen, bei der Daten in einer isolierten Umgebung gespeichert werden sollen.

Die Unabhängigkeit von externen Diensten und die Option, geschlossene und offene KI-Modelle zu verwenden, könnte Nutzer ansprechen, die sowohl datenschutzfreundliche als auch leistungsfähige Lösungen für die Dokumentenverwaltung suchen und unter einer einheitlichen Oberfläche nutzen möchten. Die offizielle Dokumentation der Macher klärt über den Funktionsumfang des Angebotes auf.

04. Nov 2024 um 07:57 Uhr von Nicolas Fehler gefunden?


    Zum Absenden des Formulars muss Google reCAPTCHA geladen werden.
    Google reCAPTCHA Datenschutzerklärung

    Google reCAPTCHA laden

    14 Kommentare bisher. Dieser Unterhaltung fehlt Deine Stimme.
  • Bevor sich die Masse darauf stürzt… lokal installierte LLMs haben einen unfassbar hohen Anspruch auf Festplatten- und Speicherplatz.

    Mehrere parallel davon ist für die meisten Anwender praktisch unmöglich.

      • Mit einem MacBook Pro M3 und mindestens 16GB RAM + 4GB Speicher kann man sehr gut lokale Modelle nutzen. Nicht dir größten aber zb LLama 3.2 8B geht super. Darunter hab ich keine Erfahrung.

      • Crack Federvieh

        Die Apple MLX Modelle zudem noch schnell

      • Ich brauche Rat:

        Ich habe einen M1Pro und llama geht zwar, aber schon etwas träge.

        Denke zu wechseln. Preislich um 4K okay. (MacBookPro, 2TB)

        Entweder M4Pro, M3Max oder M2 Ultra Studio.

        Der M3Max wäre mein Fav. Mehr GPU, RAM je nach Angebot, preislich etwas drunter. TB5 ist ja jetzt nichts, was man sofort haben muss.

        Andere Anregungen?

    • Das ist kein lokal installiertes llm, das nutzt ja trotzdem die Internet Services. Ist nur ein hub der alles unter einem Hut vereint

      • Aber für die Internet Services wird doch bestimmt eine kostenpflichtige API notwendig sein, oder?

  • Ist das nicht das gleiche wie MacBot, zumindest was die Verwendung diverse KIs unter einer Oberfläche betrifft? (Also außer der Lokal Funktion)

  • Ich hoffe, dass wir nach dem Frühjahr dann nicht ständig bei jedem zukünftigen Feature lesen müssen „diese Funktion ist vorerst in der EU nicht verfügbar“, sondern dass Apple die EU-Konformität immer von vorne mit einkalkuliert.

  • Redet mit. Seid nett zueinander!

    Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

    ifun.de ist das dienstälteste europäische Onlineportal rund um Apples Lifestyle-Produkte.
    Wir informieren täglich über Aktuelles und Interessantes aus der Welt rund um iPad, iPod, Mac und sonstige Dinge, die uns gefallen.
    Insgesamt haben wir 39489 Artikel in den vergangenen 8464 Tagen veröffentlicht. Und es werden täglich mehr.
    ifun.de — Love it or leave it   ·   Copyright © 2024 aketo GmbH   ·   Impressum   ·   Cookie Einstellungen   ·   Datenschutz   ·   Safari-Push aketo GmbH Powered by SysEleven