OpenAI hat endlich die Alpha-Testversion des erweiterten Sprachmodus (Advanced Voice Mode) von GPT-4o für einige Plus-Nutzer offiziell eingeführt.
Diese neue Funktion ermöglicht es Benutzern, Gespräche jederzeit zu unterbrechen, und das System kann auch die Stimmungsschwankungen der Benutzer wahrnehmen und darauf reagieren. Die zuvor viel beachteten Video- und Bildschirmfreigabefunktionen werden jedoch später eingeführt.
OpenAI plant, die Anzahl der Testnutzer schrittweise zu erhöhen, und erwartet, dass alle Plus-Mitglieder bis zum Herbst dieses Jahres diese Funktion nutzen können.
Einige ausländische Internetnutzer haben bereits Testzugang erhalten und ihre Erfahrungen geteilt:
-
Als Sprachlernwerkzeug:
- GPT-4o kann als Fremdsprachenpartner fungieren und zeigt Geduld und Sorgfalt.
- Es kann fließend zwischen verschiedenen Sprachen wechseln, wie Französisch, Spanisch, Urdu usw.
- Die chinesische Leistung hat noch Verbesserungspotenzial und klingt etwas mechanisch.
-
Unterhaltungsfunktionen:
- Kann Witze verstehen und erzählen.
- Kann Gruselgeschichten erzählen und entsprechende Soundeffekte simulieren.
- Kann Zungenbrecher vorlesen und B-BOX-Performances durchführen.
-
Videoverständnisfunktion (von wenigen Nutzern erlebt):
- Kann Videoinhalte in Echtzeit verstehen und interagieren.
- Kann Echtzeit-Videoübersetzungen durchführen.
Derzeit bietet GPT-4o vier Stimmoptionen: Juniper, Breeze, Cove und Ember, alle von professionellen Synchronsprechern. OpenAI hat auch neue Filter entwickelt, um die Erzeugung von möglicherweise urheberrechtlich geschützter Musik oder Audioinhalten zu verhindern.
Obwohl OpenAIs Produktveröffentlichungsrhythmus unbeständig ist, wird seine technologische Stärke immer noch weithin anerkannt. Benutzer haben hohe Erwartungen an OpenAIs neue Funktionen und hoffen gleichzeitig, dass das Unternehmen bald Vollversionen und weitere innovative Produkte auf den Markt bringen wird.
[Beispiel für offizielle OpenAI-Benachrichtigung]