OpenAIがついに一部のPlusユーザーに対してGPT-4oの高度な音声モード(Advanced Voice Mode)のアルファテスト版を正式に配信しました。
この新機能により、ユーザーはいつでも会話を中断でき、システムはユーザーの感情の変化を感知して応答することができます。ただし、以前から注目されていたビデオや画面共有機能は後日リリースされる予定です。
OpenAIは段階的にテストユーザー数を拡大し、今年の秋までにはすべてのPlusメンバーがこの機能を体験できるようになると予想しています。
海外の一部ユーザーがすでにテスト資格を得て、使用体験を共有しています:
-
言語学習ツールとして:
- GPT-4oは外国語の練習相手として機能し、忍耐強く細やかな特徴を示します。
- フランス語、スペイン語、ウルドゥー語など、複数の言語をスムーズに切り替えることができます。
- 中国語の効果にはまだ改善の余地があり、やや機械的に聞こえます。
-
エンターテイメント機能:
- ジョークを理解し、語ることができます。
- ホラーストーリーを語り、適切な音響効果を模倣できます。
- 早口言葉を朗読したり、ビートボックスを演じたりすることができます。
-
ビデオ理解機能(一部のユーザーが体験):
- ビデオコンテンツをリアルタイムで理解し、対話することができます。
- リアルタイムでビデオ翻訳を行うことができます。
現在、GPT-4oは4つの音声オプションを提供しています:Juniper、Breeze、Cove、Emberで、すべてプロのボイスアクターによるものです。OpenAIは著作権を侵害する可能性のある音楽や音声コンテンツの生成を防ぐための新しいフィルターも開発しました。
OpenAIの製品リリースペースは不安定ですが、その技術力は依然として広く認められています。ユーザーはOpenAIの新機能に高い期待を寄せており、同時に完全版やより多くの革新的な製品の早期リリースを望んでいます。
[OpenAI公式通知例]