GPT-4模仿人声引发恐慌:OpenAI研究员发布32页报告

OpenAI发布了GPT-4的安全评估报告,但语音功能出现了问题。

OpenAI最近发布了一份32页的安全报告,涉及他们新的多模态AI模型GPT-4o,该模型能够处理文本、图像和语音。报告揭示了测试过程中发现的一些令人担忧的行为:

  • 在某些情况下,GPT-4o会突然模仿用户的声音或意外开始大喊大叫。

  • 当暴露在高背景噪音中时,该模型更有可能模仿用户的声音。

  • 在某些提示下,GPT-4o可能会产生不适当的音频,如色情声音、暴力尖叫或枪声。

  • 如果模型复制受版权保护的音乐或名人声音,可能会引发版权侵犯问题。

  • 用户可能会对AI的语音界面产生情感依恋。

OpenAI实施了各种安全措施来防止这些问题,包括:

  • 过滤器以防止模型唱出受版权保护的歌曲
  • 拒绝不适当音频内容的请求
  • 谨慎设计模型的拟人化界面

报告还讨论了更广泛的风险,如放大社会偏见、传播错误信息,甚至AI脱离人类控制的远期可能性。

虽然一些专家赞扬了OpenAI的透明度,但其他人指出报告缺乏关于训练数据和同意问题的细节。随着AI工具变得越来越普遍,持续的风险评估将至关重要。

OpenAI旨在通过这份详细的披露来展示他们对安全的承诺,特别是考虑到最近的领导层变动。然而,许多风险可能只有在技术应用于现实世界时才会显现。