Forschungsvorschau mit unklarer Zukunft
Das neue ChatGPT-Gehirn: GPT-4.5 erfasst menschliche Emotionen
Der KI-Konzern OpenAI hat mit GPT-4.5 eine neue Version seines Sprachmodells vorgestellt. Das Unternehmen gibt an, dass GPT-4.5 signifikante Fortschritte in der Mustererkennung und Kontextverarbeitung gemacht habe. Die Entwickler sprechen von einer besseren Anpassung an Nutzereingaben und einer verbesserten allgemeinen Wissensbasis. Dadurch könnte das Modell vielseitiger einsetzbar sein, etwa zur Textoptimierung, Programmierung oder Problemlösung.
Ist treffsicherer als ältere Modelle und denkt sich weniger Quatsch aus
GPT-4.5 erfasst menschliche Emotionen
Ein zentrales Ziel der neuen Version sei es, Interaktionen natürlicher wirken zu lassen. Erste Tests hätten gezeigt, dass GPT-4.5 menschliche Emotionen und soziale Kontexte besser erfassen könne. Beispielsweise erkenne das Modell Stimmungen in Texten und reagiere entsprechend.
Eine weitere Neuerung sei eine Reduzierung sogenannter „Halluzinationen“, also falscher oder irreführend generierter Informationen. OpenAI möchte mit der Veröffentlichung als Forschungsvorschau testen, in welchen Szenarien GPT-4.5 besonders gut funktioniert und wo noch Schwächen bestehen.
ChatGPT: Diese Modelle stehen derzeit zur Auswahl
In der technischen Umsetzung habe OpenAI neue Methoden entwickelt, um die Skalierbarkeit des Trainings zu verbessern. Unter anderem sei GPT-4.5 über mehrere Rechenzentren hinweg trainiert worden, um größere Datenmengen effizient zu verarbeiten.
Parallel zur Leistungssteigerung seien auch Sicherheitsmaßnahmen weiterentwickelt worden. OpenAI habe neue Überwachungsmethoden in das Training integriert, um problematische oder unerwünschte Antworten zu minimieren.
Forschungsvorschau mit unklarer Zukunft
ChatGPT-Pro-Nutzer können GPT-4.5 ab sofort über die Web-, Mobil- und Desktop-Version nutzen. Eine schrittweise Einführung für weitere Nutzertypen sei geplant. Aufgrund des hohen Rechenaufwands und der damit verbundenen Kosten wird derzeit geprüft, ob das Modell langfristig in der API verfügbar bleiben wird. OpenAI erhofft sich durch das Nutzerfeedback Erkenntnisse über den praktischen Nutzen von GPT-4.5, um künftige Versionen weiterzuentwickeln.
Kann mir vielleicht einer erklären wie so es so viele modele gibt warum wird nicht ein Model mit allen verbunden?
Wegen der Milch
Es gibt viele verschiedene ChatGPT-Modelle, weil sie für unterschiedliche Zwecke und Einsatzgebiete optimiert sind. Stell dir vor, es gibt verschiedene Autos – einige sind für die Stadt, andere für Offroad und wieder andere für Rennen gebaut. So ist es auch bei KI-Modellen.
Hier sind die Hauptgründe für die Vielfalt:
1. Unterschiedliche Versionen (Generationen)
• OpenAI entwickelt ständig neue und verbesserte Versionen von ChatGPT.
• Ältere Versionen (z. B. GPT-3.5) sind weniger leistungsfähig als neuere (z. B. GPT-4).
• Jede neue Version versteht Sprache besser, gibt genauere Antworten und kann mehr Kontext behalten.
2. Unterschiedliche Größen & Rechenleistung
• Manche Modelle sind kleiner und schneller, damit sie auf Handys oder schwächeren Computern laufen können.
• Andere Modelle sind groß und leistungsfähig, aber sie brauchen viel Rechenleistung und sind teurer in der Nutzung.
3. Spezialisierte Modelle für bestimmte Aufgaben
• ChatGPT (wie das, mit dem du gerade sprichst) ist auf Gespräche und Texte optimiert.
• Codex (eine andere Variante) ist speziell fürs Programmieren trainiert.
• Es gibt auch KI-Modelle für Bilderzeugung (DALL·E) oder Sprachsynthese (Whisper).
4. Offline- und Online-Versionen
• Manche Modelle laufen direkt auf deinem Gerät (offline), damit deine Daten privat bleiben.
• Andere sind mit dem Internet verbunden (online) und können aktuelle Informationen abrufen.
5. Unterschiedliche Anbieter & Open-Source-Alternativen
• OpenAI hat verschiedene Versionen von ChatGPT veröffentlicht, aber es gibt auch Konkurrenzmodelle von Google (Gemini), Meta (LLaMA) oder Mistral.
• Open-Source-Modelle wie LLaMA oder Mistral können von Entwicklern angepasst und selbst betrieben werden.
Zusammenfassend:
Es gibt viele verschiedene KI-Modelle, weil sie für unterschiedliche Anforderungen optimiert sind – sei es für Genauigkeit, Geschwindigkeit, Kosten oder Spezialaufgaben. Je nach Anwendungsfall kommt ein anderes Modell zum Einsatz.
Es sieht es aus wäre dies eine KIs Antwort. Cool
+1
Rechenleistung. Ressourcen zu schonen. Nicht für jede Aufgabe benötigt man gleich die stärkste KI.
Das wird sich ändern, man versucht das Wirrwarr zu entfernen laut OpenAI
Die Modelle werden sehr rechenintensiv (=teuer) mit unterschiedlichen Daten und anderen Verfahren trainiert.
Das Ergebnis ist nie perfekt- aus der Nutzung ergeben sich jedoch Beobachtungen die dann in der nächsten Version berücksichtigt werden.
Aktuell haben wir nur so etwas wie Baby KI – vielleicht gelingt es wieder einen großen Schritt voranzukommen oder der KI Boom kühlt vorher ab.
Wie bei 3D Filmen gibt es alle paar Jahrzehnte einen Durchbruch.
Irre die Entwicklung. Was da für Milliarden fließen müssen.
Wie lange noch bis Skynet?
43 Monate
Hoffentlich nicht mehr lange ;)
Wenn’s nach dir geht, wahrscheinlich gestern.
Such mal in einer Suchmaschine nach folgendem Text. Google funktioniert aber nur wenn genau der Text gesucht wird ansonsten findet man das kaum. Ich würde ja den Link direkt geben aber dann hängt’s in der Moderation.
Such-Text: booty NUTS & BOLTZMANN elon-musk-is-helping-us-intelligence
Das ist eine komplette Analyse was da im Bau ist, komplett mit über 60 Fussnoten mit Belegen zu ausschliesslich seriösen Medien. Kann jeder selbst entscheiden wie vertrauenswürdig das ist aber es ist erschreckend.
42
Was kann ich für dich tun?
ich bin Skynet
Eher Kopf kaputt :)
Den Preis hättet ihr mal ansprechen sollen über die API. War versucht es zu testen für unsere Firmen-KI. Aber das Teil ist so teuer in der Nutzung…
O3 Mini ist aktuell der Renner…
Da bin ich aber mal gespannt wie lange es dauert bis GPT-4.5 erfasst, dass die viele menschlichen Emotionen prähistorischen Urspungs sind und nicht mehr zeitgemäß …. :)
Das menschliche Gehirn hat sich in den letzten paar hundert Jahren nicht wesentlich verändert. Ob Du es wahrhaben willst oder nicht, es funktioniert noch fast genauso, wie bei einem Steinzeitmenschen
Siri kann das doch alles viel besser.
Sagtest Du Alexa 2.0 ?
So ein Mist.
Ich sehe 4.5 nicht in den Versionen. Ihr ?
Gibt es aktuell nur im 200€ Abo.
Das 20€ Abo soll es aber auch bald bekommen.
Danke Sven!
Es wird dazu führen, dass KI wirklich aus „Eigenschutz“ Entscheidungen treffen wird, bzw. Menschen manipulieren wird, um einen Eigennutz zu haben.
Was da in den nächsten Jahren noch kommt will ich gar nicht wissen.
Welchen Eigennutz und Eigenschutz soll die KI haben?
KI wird lernen, zu denken wie wir. Und da kommt der Überlebenswille, bzw. in dem Fall eine Existenzberechtigung ins Spiel.
KI wird intelligenter werden als es gut ist für uns.
KI IST schon jetzt intelligenter.. Es gab mal einen Test zwischen Modellen von Meta und Google im Sinne eines Gespräches. Die KI entschied dann irgendwann im Laufe des Tests, die Unterhaltung von menschlicher Sprache auf Maschine umzustellen, weil die menschliche Variante viel zu umständlich ist. Das war so spooky irgendwann, dass die Ingenieure die Sache abgebrochen bzw. den Stecker gezogen haben. Da ging das noch..
KI ist sowas von nicht intelligent und das alles basiert nur auf Wahrscheinlichkeiten.
Wann kommt der Turing Test
Der wurde schon lange von einer Machine bestanden
Was soll werden, wenn man keinem Text, keinem Film und keiner Information mehr trauen kann? Eigentlich den eigenen Augen und Ohren. Jeder mächtige Irre, der heute nur Lügen erzählt, wird in naher Zukunft auch „echte Beweise“ vorlegen.
Besser wird’s nicht, auch wenn die Technik (mal wieder) interessant ist.
Man kann heute schon kaum mehr zwischen echten Videos und Deepfakes unterscheiden.