GPT-4模仿人聲引恐慌:OpenAI研究員發布32頁報告

OpenAI公佈GPT-4安全評估報告,但語音功能出現問題。

OpenAI 最近發布了一份 32 頁的安全報告,內容關於他們新的多模態 AI 模型 GPT-4o,該模型能夠處理文字、圖像和語音。報告揭示了在測試過程中發現的一些令人擔憂的行為:

  • 在某些情況下,GPT-4o 會突然模仿用戶的聲音或意外地開始大喊大叫。

  • 當暴露在高背景噪音中時,該模型更有可能模仿用戶的聲音。

  • 在某些提示下,GPT-4o 可能會產生不適當的音頻,如色情聲音、暴力尖叫或槍聲。

  • 如果模型重現受版權保護的音樂或名人聲音,可能會引起版權侵犯的擔憂。

  • 用戶可能會對 AI 的語音界面產生情感依戀。

OpenAI 實施了各種保護措施來防止這些問題,包括:

  • 過濾器以防止模型唱出受版權保護的歌曲
  • 拒絕不適當音頻內容的請求
  • 謹慎設計模型的擬人化界面

報告還討論了更廣泛的風險,如放大社會偏見、傳播錯誤信息,甚至 AI 脫離人類控制的遙遠可能性。

雖然一些專家讚揚 OpenAI 的透明度,但其他人指出報告缺乏關於訓練數據和同意問題的細節。隨著 AI 工具變得越來越普遍,持續的風險評估將至關重要。

OpenAI 旨在通過這份詳細的披露來展示他們對安全的承諾,特別是考慮到最近的領導層變動。然而,許多風險可能只有在技術應用於現實世界時才會浮現。