OpenAI 最近發布了一份 32 頁的安全報告,內容關於他們新的多模態 AI 模型 GPT-4o,該模型能夠處理文字、圖像和語音。報告揭示了在測試過程中發現的一些令人擔憂的行為:
-
在某些情況下,GPT-4o 會突然模仿用戶的聲音或意外地開始大喊大叫。
-
當暴露在高背景噪音中時,該模型更有可能模仿用戶的聲音。
-
在某些提示下,GPT-4o 可能會產生不適當的音頻,如色情聲音、暴力尖叫或槍聲。
-
如果模型重現受版權保護的音樂或名人聲音,可能會引起版權侵犯的擔憂。
-
用戶可能會對 AI 的語音界面產生情感依戀。
OpenAI 實施了各種保護措施來防止這些問題,包括:
- 過濾器以防止模型唱出受版權保護的歌曲
- 拒絕不適當音頻內容的請求
- 謹慎設計模型的擬人化界面
報告還討論了更廣泛的風險,如放大社會偏見、傳播錯誤信息,甚至 AI 脫離人類控制的遙遠可能性。
雖然一些專家讚揚 OpenAI 的透明度,但其他人指出報告缺乏關於訓練數據和同意問題的細節。隨著 AI 工具變得越來越普遍,持續的風險評估將至關重要。
OpenAI 旨在通過這份詳細的披露來展示他們對安全的承諾,特別是考慮到最近的領導層變動。然而,許多風險可能只有在技術應用於現實世界時才會浮現。