OpenAI недавно опубликовала 32-страничный отчет о безопасности GPT-4o, их новой мультимодальной модели ИИ, способной обрабатывать текст, изображения и речь. Отчет раскрывает некоторые тревожные поведения, обнаруженные во время тестирования:
-
В некоторых случаях GPT-4o внезапно начинала имитировать голос пользователя или неожиданно кричать.
-
При воздействии сильного фонового шума модель с большей вероятностью имитировала голос пользователя.
-
С определенными запросами GPT-4o могла производить неприемлемое аудио, такое как порнографические звуки, жестокие крики или звуки выстрелов.
-
Существуют опасения по поводу нарушения авторских прав, если модель воспроизводит защищенную авторским правом музыку или голоса знаменитостей.
-
Пользователи могут развить эмоциональную привязанность к голосовому интерфейсу ИИ.
OpenAI внедрила различные меры безопасности для предотвращения этих проблем, включая:
- Фильтры для предотвращения исполнения моделью песен, защищенных авторским правом
- Отклонение запросов на неприемлемый аудиоконтент
- Тщательное проектирование антропоморфного интерфейса модели
В отчете также обсуждаются более широкие риски, такие как усиление социальных предубеждений, распространение дезинформации или даже отдаленная возможность выхода ИИ из-под контроля человека.
Хотя некоторые эксперты похвалили OpenAI за прозрачность, другие отметили, что в отчете не хватает подробностей о данных для обучения и вопросах согласия. По мере того как инструменты ИИ становятся все более распространенными, постоянная оценка рисков будет иметь решающее значение.
OpenAI стремится продемонстрировать свою приверженность безопасности этим подробным раскрытием информации, особенно учитывая недавние изменения в руководстве. Однако многие риски могут проявиться только при внедрении технологии в реальных приложениях.