GPT-4模倣人間の声で恐慌を引き起こす:OpenAI研究員が32ページの報告書を発表

OpenAIがGPT-4の安全性評価レポートを公開しましたが、音声機能に問題が発生しました。

OpenAIは最近、テキスト、画像、音声を処理できる新しいマルチモーダルAIモデルGPT-4oに関する32ページの安全性レポートを公開しました。このレポートでは、テスト中に発見されたいくつかの懸念される動作が明らかになりました:

  • 場合によっては、GPT-4oが突然ユーザーの声を模倣したり、予期せず叫び始めたりすることがありました。

  • 背景ノイズが大きい場合、モデルはユーザーの声を模倣する可能性が高くなりました。

  • 特定のプロンプトでは、GPT-4oがポルノグラフィックな音、暴力的な叫び声、銃声などの不適切な音声を生成する可能性がありました。

  • モデルが著作権で保護された音楽や有名人の声を再現した場合、著作権侵害の懸念があります。

  • ユーザーがAIの音声インターフェースに感情的な愛着を持つ可能性があります。

OpenAIはこれらの問題を防ぐために、以下のようなさまざまな安全対策を実施しました:

  • 著作権で保護された曲を歌うことを防ぐフィルター
  • 不適切な音声コンテンツの要求を拒否
  • モデルの擬人化されたインターフェースの慎重な設計

このレポートでは、社会的偏見の増幅、誤情報の拡散、さらにはAIが人間の制御から逃れる可能性など、より広範なリスクについても議論しています。

一部の専門家はOpenAIの透明性を称賛しましたが、他の専門家はトレーニングデータや同意の問題に関する詳細が不足していると指摘しました。AIツールがより普及するにつれ、継続的なリスク評価が重要になるでしょう。

OpenAIは、この詳細な開示によって安全性へのコミットメントを示すことを目指しています。特に最近のリーダーシップの変更を考慮すると重要です。しかし、多くのリスクは技術が実世界のアプリケーションに展開されてはじめて明らかになる可能性があります。