ChatGPTは当初、学生たちにとって論文執筆の強力な助っ人と見なされていましたが、今では彼らの悪夢になる可能性があります。内部情報によると、OpenAIは秘密裏に「盗用防止ツール」を開発し、論文やレポートでChatGPTが使用されたかどうかを正確に検出できるようになりました。この技術についてはOpenAI内部で2年間議論されており、実際には1年前にすでに準備が整っていました。
この不正防止ツールの原理は、ChatGPTがテキストを生成する際に、単語の選択確率を密かに調整し、特定の確率パターンを透かしとして埋め込むことです。人間には気づかれませんが、OpenAIの検出システムは識別できます。テキストが十分に長ければ、検出の精度は99.9%に達すると言われています。
具体的な実装は、文中のトークンの出現頻度を変更することで行われる可能性があります。例えば、「私の好きな果物は__」という文で、特定の果物により高い出現確率を与えることで、一種の暗号を形成します。この微妙な確率の変更は読解に影響を与えませんが、OpenAIによって解読できます。
現在、OpenAIはこの技術を公開していませんが、公式ウェブサイトでブログを発表し、研究中であることを認めています。市場にはすでに、GoogleのSynthIDやGPT Zeroなど、さまざまなAIテキスト検出ツールが存在します。しかし、これらのツールにも複雑なテキストの検出精度が低いなどの限界があります。
OpenAIが透かし機能の公開を遅らせている理由として考えられるのは:
-
テキストに透かしを入れる技術の難しさ。テキストの表現方法が多様で、統計分析が困難。
-
透かしが破られる可能性。多言語翻訳で検出を回避できることが発見されている。
-
透かしを入れる必要性に関する議論。AI技術の発展と応用に影響を与える可能性。
-
悪用への懸念。検閲や監視に使用される可能性。
-
ビジネス上の考慮。ユーザー体験と製品の競争力に影響を与える可能性。
総じて、AIテキスト検出技術はまだ発展途上にあり、今後、技術の発展、ユーザー体験、倫理的問題のバランスをどのように取るかが注目されます。