OpenAI hat kürzlich GPT-4o mini veröffentlicht, eine kleinere und kostengünstigere Version ihres GPT-4o-Modells. Hier sind die wichtigsten Punkte zu GPT-4o mini:
- 
Es übertrifft GPT-3.5 Turbo in Benchmarks für Textintelligenz und multimodales Reasoning und überflügelt sogar GPT-4 auf dem LMSYS-Chatbot-Leaderboard.
 - 
Es unterstützt ein Kontextfenster von 128K Token und kann bis zu 16K Token pro Anfrage ausgeben, was längere Konversationen und längere Antworten im Vergleich zu GPT-3.5 Turbo ermöglicht.
 - 
Die Preisgestaltung ist deutlich niedriger als bei GPT-3.5 Turbo:
- 0,15 $ pro Million Eingabe-Token (etwa 1,09 RMB)
 - 0,60 $ pro Million Ausgabe-Token (etwa 4,36 RMB)
 - Über 60% günstiger als GPT-3.5 Turbo
 
 - 
Es wird GPT-3.5 Turbo für kostenlose Nutzer in ChatGPT ersetzen.
 - 
Es wird ab diesem Herbst Apples KI-Funktionen auf mobilen Geräten und Macs antreiben, wahrscheinlich aber immer noch durch Cloud-Verarbeitung statt auf dem Gerät selbst.
 - 
Derzeit unterstützt es Text-Ein-/Ausgabe über API, wobei Unterstützung für Bild, Video und Audio später hinzukommen wird.
 - 
Es teilt Verbesserungen in der Token-Generierung mit GPT-4o, was es effizienter für die Verarbeitung nicht-englischer Texte macht.
 - 
Benchmarks zeigen, dass es ähnliche "Value"-Modelle wie Gemini 1.5 Flash und Claude 3 Haiku in Bereichen wie mathematischem Reasoning und Code-Generierung übertrifft.
 - 
Der Fokus auf ein kleineres, kostengünstigeres Modell ist eine Veränderung für OpenAI, wahrscheinlich als Reaktion auf die Nachfrage der Entwickler nach solchen Optionen.
 - 
Viele Unternehmen bewegen sich in Richtung kleinerer KI-Modelle, um Kosten zu reduzieren und dennoch Leistungsanforderungen zu erfüllen.
 
OpenAI zielt darauf ab, die Grenzen der KI-Fähigkeiten zu erweitern und gleichzeitig zugänglichere Optionen für Entwickler und Anwendungen bereitzustellen. GPT-4o mini repräsentiert ihren Eintritt in den Bereich der "kleineren, aber leistungsfähigen" Modelle, den andere Unternehmen bereits erkundet haben.