ChatGPTで書かれた論文は法の目を逃れられない:OpenAIの不正防止ツールがまもなく登場

OpenAIでは、ChatGPTなどのAIモデルを公開するかどうかについての議論が2年以上続いています。会社の上層部は安全性とイノベーションのバランスについて合意に達することが難しく、意思決定プロセスが長引いています。この継続的な議論は、AI開発における複雑な倫理的問題を浮き彫りにしています。

OpenAIはAIが生成したコンテンツを検出するツールを開発し、その精度は99.9%に達しています。このツールのアイデアは2022年11月に既に提案されていましたが、現在まで一般公開されていません。

主な理由は2つあります:

  1. 技術的側面:
  • 初期の成功率はわずか26%でしたが、後に99.9%まで向上
  • ChatGPTの文章作成の質に影響を与える可能性について内部で懸念
  • 翻訳などの方法で透かしを消去するなど、回避されるリスクがある
  1. ユーザーの好み:
  • 調査によると、世界中でわずか1/4の人々が検出ツールの増加を支持
  • ChatGPTユーザーの約30%が透かしが導入されれば使用を減らすと表明
  • 非英語母語話者により大きな影響を与える可能性がある

OpenAI内部でこの問題について議論があります。支持者はエコシステムの発展に有益だと考え、反対者はユーザーの流出を懸念しています。現在、このツールはまだリリースされていません。

OpenAI以外にも、GoogleやAppleなどの企業が同様のツールを開発中で、一部は内部テストを開始していますが、正式にはリリースされていません。

調査によると、ユーザーはChatGPTを主に文章作成(21%)と宿題の完成(18%)に使用しており、これがユーザーが検出技術に反対する理由の一つかもしれません。

OpenAIは今年の秋までに、AIの透明性に関する公衆の見方に影響を与えるための計画を策定する予定です。しかし、現時点では具体的な対策は発表されていません。