OpenAI наконец официально запустила альфа-тестирование расширенного голосового режима (Advanced Voice Mode) GPT-4o для некоторых пользователей Plus.
Эта новая функция позволяет пользователям прерывать разговор в любое время, а система может воспринимать и реагировать на эмоциональные колебания пользователя. Однако ранее ожидаемые функции видео и совместного использования экрана будут выпущены позже.
OpenAI планирует постепенно увеличивать количество тестовых пользователей, и ожидается, что все члены Plus смогут испытать эту функцию этой осенью.
Некоторые зарубежные пользователи уже получили доступ к тестированию и поделились своим опытом:
-
Как инструмент изучения языка:
- GPT-4o может выступать в роли партнера по иностранному языку, проявляя терпение и внимательность.
- Способен плавно переключаться между несколькими языками, такими как французский, испанский, урду и др.
- Китайский язык все еще нуждается в улучшении, звучит немного механически.
-
Развлекательные функции:
- Может понимать и рассказывать шутки.
- Может рассказывать страшные истории и имитировать соответствующие звуковые эффекты.
- Способен читать скороговорки и выполнять битбокс.
-
Функция понимания видео (доступна небольшому числу пользователей):
- Может понимать содержание видео в реальном времени и взаимодействовать с ним.
- Может выполнять перевод видео в реальном времени.
В настоящее время GPT-4o предлагает четыре варианта голоса: Juniper, Breeze, Cove и Ember, все от профессиональных актеров озвучивания. OpenAI также разработала новые фильтры для предотвращения генерации музыки или аудиоконтента, которые могут нарушать авторские права.
Несмотря на нестабильный темп выпуска продуктов OpenAI, ее технологические возможности по-прежнему широко признаны. Пользователи имеют высокие ожидания от новых функций OpenAI и надеются, что компания сможет быстро выпустить полную версию и больше инновационных продуктов.
[Пример официального уведомления OpenAI]