
OpenAI veröffentlicht "abschließende Arbeit" zur Super-Alignment-Forschung: Große und kleine Modelle im Wettstreit verbessern die Lesbarkeit der Ausgabe
Leichte Verringerung der Genauigkeit

Nur 3,8 Milliarden Parameter aktiviert, Leistung vergleichbar mit ähnlichen 7-Milliarden-Modellen, geeignet für Training und Feinabstimmung, neueste Forschungsergebnisse von Microsoft
Forscher haben Optimierungsmuster im Inferenzprozess großer Sprachmodelle aufgedeckt. Durch die Analyse von Modellen unterschiedlicher Größe entdeckten sie ein vorhersagbares Skalierungsgesetz, das Anleitungen für eine effizientere Modellinferenz liefert. Diese Entdeckung bietet neue Ansätze und Methoden zur Optimierung der Inferenzleistung großer Sprachmodelle.

Jia Jiayas Team stellt neuen Bewertungsstandard vor: Fokus auf Fehlerkorrektursfähigkeiten von großen Sprachmodellen, GPT-4 schneidet schlechter ab als erwartet
Über mehrere Bereiche hinweg und mit unterschiedlichen Schwierigkeitsgraden

Den Blick auf die ganze Welt gerichtet, auf der Suche nach unternehmerischen Chancen, die über den Gründer von ByteDance hinausgehen
Die technologische Entwicklung ist nicht der Schlüssel. Der Blick auf den internationalen Markt und die Rentabilität sind die wahren Schwerpunkte.

Chinesischstämmige Unternehmerin wird mit 33 Jahren Professorin auf Lebenszeit in Stanford, gründet innerhalb von 3 Monaten ein Einhorn-Unternehmen im Wert von 1 Milliarde Dollar und beriet zuvor das Weiße Haus
Li Fei-Fei hat das Unternehmen World Labs gegründet, dessen Bewertung bereits die Marke von 1 Milliarde US-Dollar überschritten hat.