OpenAI最近发布了一份32页的安全报告,涉及他们新的多模态AI模型GPT-4o,该模型能够处理文本、图像和语音。报告揭示了测试过程中发现的一些令人担忧的行为:
-
在某些情况下,GPT-4o会突然模仿用户的声音或意外开始大喊大叫。
-
当暴露在高背景噪音中时,该模型更有可能模仿用户的声音。
-
在某些提示下,GPT-4o可能会产生不适当的音频,如色情声音、暴力尖叫或枪声。
-
如果模型复制受版权保护的音乐或名人声音,可能会引发版权侵犯问题。
-
用户可能会对AI的语音界面产生情感依恋。
OpenAI实施了各种安全措施来防止这些问题,包括:
- 过滤器以防止模型唱出受版权保护的歌曲
- 拒绝不适当音频内容的请求
- 谨慎设计模型的拟人化界面
报告还讨论了更广泛的风险,如放大社会偏见、传播错误信息,甚至AI脱离人类控制的远期可能性。
虽然一些专家赞扬了OpenAI的透明度,但其他人指出报告缺乏关于训练数据和同意问题的细节。随着AI工具变得越来越普遍,持续的风险评估将至关重要。
OpenAI旨在通过这份详细的披露来展示他们对安全的承诺,特别是考虑到最近的领导层变动。然而,许多风险可能只有在技术应用于现实世界时才会显现。