OpenAI hat kürzlich GPT-4o mini veröffentlicht, eine kleinere und kostengünstigere Version ihres GPT-4o-Modells. Hier sind die wichtigsten Punkte zu GPT-4o mini:
-
Es übertrifft GPT-3.5 Turbo in Benchmarks für Textintelligenz und multimodales Reasoning und überflügelt sogar GPT-4 auf dem LMSYS-Chatbot-Leaderboard.
-
Es unterstützt ein Kontextfenster von 128K Token und kann bis zu 16K Token pro Anfrage ausgeben, was längere Konversationen und längere Antworten im Vergleich zu GPT-3.5 Turbo ermöglicht.
-
Die Preisgestaltung ist deutlich niedriger als bei GPT-3.5 Turbo:
- 0,15 $ pro Million Eingabe-Token (etwa 1,09 RMB)
- 0,60 $ pro Million Ausgabe-Token (etwa 4,36 RMB)
- Über 60% günstiger als GPT-3.5 Turbo
-
Es wird GPT-3.5 Turbo für kostenlose Nutzer in ChatGPT ersetzen.
-
Es wird ab diesem Herbst Apples KI-Funktionen auf mobilen Geräten und Macs antreiben, wahrscheinlich aber immer noch durch Cloud-Verarbeitung statt auf dem Gerät selbst.
-
Derzeit unterstützt es Text-Ein-/Ausgabe über API, wobei Unterstützung für Bild, Video und Audio später hinzukommen wird.
-
Es teilt Verbesserungen in der Token-Generierung mit GPT-4o, was es effizienter für die Verarbeitung nicht-englischer Texte macht.
-
Benchmarks zeigen, dass es ähnliche "Value"-Modelle wie Gemini 1.5 Flash und Claude 3 Haiku in Bereichen wie mathematischem Reasoning und Code-Generierung übertrifft.
-
Der Fokus auf ein kleineres, kostengünstigeres Modell ist eine Veränderung für OpenAI, wahrscheinlich als Reaktion auf die Nachfrage der Entwickler nach solchen Optionen.
-
Viele Unternehmen bewegen sich in Richtung kleinerer KI-Modelle, um Kosten zu reduzieren und dennoch Leistungsanforderungen zu erfüllen.
OpenAI zielt darauf ab, die Grenzen der KI-Fähigkeiten zu erweitern und gleichzeitig zugänglichere Optionen für Entwickler und Anwendungen bereitzustellen. GPT-4o mini repräsentiert ihren Eintritt in den Bereich der "kleineren, aber leistungsfähigen" Modelle, den andere Unternehmen bereits erkundet haben.