“GPT-4o mini” deutlich kosteneffizienter
60 Cent statt 15 Dollar: ChatGPT mit neuem KI-Modell
OpenAI, das Unternehmen hinter dem KI-Chatbot ChatGPT, hat das neue KI-Modell “GPT-4o mini” präsentiert, das sich auf die kostengünstige und damit auch energieeffizientere Bereitstellung von künstlicher Intelligenz konzentrieren soll.
“GPT-4o mini” vorgestellt
GPT-4o mini soll die Nutzung von KI-Anwendungen zukünftig deutlich erschwinglicher machen: Die Preise liegen bei 15 Cent für jede Million Eingabetoken und 60 Cent für eine Million Ausgabetoken, dennoch soll die gebotene Leistung über der von GPT-3.5 Turbo liegen. Zum Vergleich: Bei der identischen Nutzung von GPT-4o werden 5 Dollar beziehungsweise 15 Dollar abgerechnet.
Trotz geringerer Kosten soll das neue Mini-Modell eine minimale Latenz aufweisen und erlaubt das Übertragen großer Kontextmengen sowie die Interaktion mit der Vision-API, zukünftige Updates sollen auch Bild-, Video- und Audioeingaben und -ausgaben umfassen. Das Modell hat ein Kontextfenster von 128.000 Tokens und kann bis zu 16.000 Ausgabetokens pro Anfrage verarbeiten. Die Wissensbasis reicht bis Oktober 2023.
GPT-4o mini soll frühere Modelle in Sachen Intelligenz und multimodalem Denken übertreffen und Matheprobleme sowie Code-Aufgaben besser als Googles Gemini Flash und Claude Haiku bewältigen.
Auf Sicherheit getrimmt
GPT-4o mini integriert dabei die auch in anderen Modellen vorhandenen Sicherheitsmaßnahmen. In der Vortrainingsphase wird ungeeignetes Material herausgefiltert, durch menschliches Feedback wird die Genauigkeit und Zuverlässigkeit der KI-Antworten verbessert.
GPT-4o mini ist ab sofort in verschiedenen APIs verfügbar. Entwickler zahlen 15 Cent für eine Million Eingabetoken und 60 Cent für eine Million Ausgabetoken. In ChatGPT können Free-, Plus- und Team-Nutzer ab sofort auf GPT-4o mini zugreifen, Enterprise-Nutzer ab der nächsten Woche.
KI-Boom führt zu mehr Emissionen
Wie wichtig die Einführung kosteneffizienter KI-Modelle ist, hat der Umweltreport des Suchmaschinenanbieters Google kürzlich gezeigt. Google gab darin an, für die Ausgabe von KI-Antworten deutlich mehr Energie zu verbrauchen. Gegenüber dem Vorjahr hätten die CO2-Emissionen so um satte 13 Prozent zugenommen. KI-Antworten gelten als etwa zehnmal so energiehungrig wie reguläre Suchanfragen.
Ich warte immer noch auf Hello Gpt4o. Seit der Ankündigung hieß es in ein paar Wochen. Monate sind vorbeigegangen und sie haben nicht geliefert. Nicht, dass ich ohne nicht leben könnte, finde aber die Idee interessant zu einem Thema, was erklärt zu bekommen, während ich unterwegs bin.
Welches Modell meinst du denn?
Oder bezieht sich deine Aussage auf die Voice Funktion von GPT-4o ? Denn diese ist durchaus schon verfügbar und lässt sich auch mit Kurzbefehl starten.
Nein, das seinerzeit bei der Vorstellung von 4o angekündigte und präsentierte NEUE Voice-Modell ist noch nicht vorhanden. Nach wie vor gibt es nur die seit mehr als einem Jahr verfügbare alte Voice-Funktion, die all das nicht kann, was sie vorgestellt haben (gefühlsbetonte Stimme, Unterbrechung, Live-Bild-Erkennung, usw.). Wobei sie dafür inzwischen einen Zeitplan benannt haben: Bis Ende Juli Zugang für ausgewählte Alpha-Tester, im Herbst dann Zugang für alle Plus-Nutzer.
Du meinst wahrscheinlich die neue Voice-Funktion von 4o. Da haben sie im Juni einen Zeitplan genannt: Ende Juli Zugang für ausgewählte Alpha-Tester, im Herbst dann für alle Plus-Nutzer.
Und keinen interessiert die Umwelt
60 Cent auch für normalos. (Nicht Entwickler) ?
Eher an „Entwickler“ aber ich würde eh auch als Normalo nur via API gehen oder ChatGPT komplett meiden und Mistral nutzen.
Welche ist da die optimale mobile Lösung auf iOS?
Aus welchem Grund?
Schau dir mal SwizzAI an.
Seit gestern mein rebbit r1 hier. Nette Spielerei
In Fachkreisen auch Scam genannt.
Mein Beileid.
Und ich zahle 23 € im Monat für Plus. Gibt einem auch zu denken.
Ja, finde es auch ordentlich teuer und dachte eigentlich wo gelesen zu haben, dass das Abo günstiger werden sollte. Nun, bis dato zumindest nicht.
Was gibt einem da zu denken?
Ich hatte auch Plus und bin dann einfach auf die API gewechselt. Versorge damit mehrere Familienmitglieder mit 4o und zahle pro Monat zusammen ca. 1-3€.
Verstehe das nicht mit den, ein und Ausgabe Tokens
Ich auch nicht. Nutzte gpt free ab und an mal für einfache dinge. Das mit den tokens verstehe ich auch nicht.
Was ist ein Token???
Fragt ChatGPT
hahaha :) :) Guter Punkt
Wenn du GPT-Modelle nicht über die GUI, sondern über die API nutzt, dann schickst du einen Input hin und einen Output zurück. Dein Input (Text, Audio, Video, …) wird ein Teile zerlegt (Tokens) und jeder Token ist einer Zahl zugewiesen. Umgekehrt gibt das Modell zahlen aus, und jede Zahl steht wiederum für einen Token, der zusammengesetzt deinen Output ergibt.
Input-Tokens und Output-Tokens werden unterschiedlich bepreist. Da die Kosten für einen Token extrem gering sind, wird der Preis meistens in Dollar/Cent je 1000 Tokens oder Dollar/Cent je eine Million Tokens angegeben.
Wie viele Tokens dein Input verursacht, ist von Modell zu Modell unterschiedlich, da viele einen eigenen Tokenizer verwenden. Ganz grob kann man sagen (nur als Orientierung): 1 Silbe = 1 Token. Man kann sich mit Hilfe des jeweiligen Tokenizers vorab berechnen lassen, wie vielen Tokens der Input entspricht.
Danke für die Erklärung :)
Ist das kostenlose Angebot nicht auch mit gpt4o?
Und was ist dann der Unterschied? Ich checks nicht.
Einmal gibt es ChatGPT auf der Webseite in kostenlos und mit Abo.
GPT-4o mini ist dort auch verfügbar.
GPT-4o ist in der kostenlosen Version beschränkt.
https://openai.com/chatgpt/pricing/
Dann gibt es noch die zweite Variante über die API von OpenAI. Diese kann von Apps genutzt werden. Zugriff auf die API kostet entsprechend im Artikel erwähnt.
https://openai.com/api/
Nutzen wir bei Daily-Digest.net seit gestern. Die Resultate sind auf jedenfall wesentlich besser als gpt3.5. Allerdings ist das Model auch wirklich haarsträubend langsam
Wer ist denn „wir“? Wenn du für deine Seite Werbung betreibst, dann richtig. Nicht einmal ein Impressum und dann damit werben, dass ein KI die Fakenews herausfiltern soll? Vielleicht machst du Werbung, wenn die Grundzüge der Seite feststehen und diese nicht selbst den Eindruck erweckt, sie wäre der Fake höchstselbst.
Wie wäre es, wenn du deine negativität los wirst in dem du deinen Kopf gegen eine Wand schlägst?
Du scheinst ja richtig Probleme zu haben.
Davon abgesehen wäre konstruktive Kritik durchaus wünschenswert. Aber was hat ein Impressum mit Fake News Gewichtung zu tun.
Im übrigen, solange du die Technologie dahinter weder kennst noch verstehst solltest du nicht urteilen.
Pete, wenn deine Seite KI gestützt „das Wesentliche“ an täglichen Nachrichten liefern soll, und dann DAS dabei rauskommt, solltest du dich dringendst fragen, was bei deiner KI-Filterung nicht stimmt … und an deinem Nachrichtenanspruch.
Von daher gibt es aber großes Verständnis, dass kein Impressum vorhanden ist. Mit dem Angebot würde ich auch nicht in Verbindung gebracht werden wollen.
Das darfst du als „konstruktive Kritik“ interpretieren!
+1