生成式人工知能の学術論文執筆における広範な応用は、剽窃の定義に関する議論を引き起こしています。ChatGPTなどの大規模言語モデル(LLM)ツールは執筆効率を向上させる可能性がありますが、剽窃行為の発見をより困難にしています。
多くの研究者は、特定の状況下でAIツールの使用を許可できると考えていますが、その使用状況を十分に開示すべきだと主張しています。しかし、LLMは大量の既発表論文を消化してテキストを生成するため、これは「剽窃」に似ている可能性があります。これらのツールの使用により、研究者が機械生成のコンテンツを自分の作品として偽装したり、他人の作品と酷似したテキストを出典を明記せずに生成したりする可能性があります。
1600人の研究者を対象とした調査では、68%の回答者がAIによって剽窃行為がより容易になり、発見が困難になると考えています。専門家たちは、LLMが意図的な剽窃テキストを隠蔽するために使用される可能性を懸念しています。
AI生成の無署名コンテンツの使用が剽窃に該当するかどうかについては議論があります。一部の専門家はこれを剽窃そのものではなく「無許可のコンテンツ生成」と定義すべきだと考えています。しかし、生成型AIツールが著作権を侵害しているとする意見もあります。
ChatGPTの発表以来、学術論文執筆におけるAIの使用は爆発的に増加しています。研究によると、2024年上半期には生物医学論文の要約の少なくとも10%がLLMを使用していると推定されています。英語圏の国々と比較して、中国や韓国などの国々の論文ではLLMの使用痕跡がより多く見られます。
議論はありますが、多くの研究者はAIツールが学術論文執筆において一定の価値があり、明確さを向上させ、言語障壁を減少させる可能性があると考えています。しかし、何が剽窃や倫理違反に該当するかについては、依然として混乱が見られます。
現在、多くの学術誌はある程度のLLM使用を許可していますが、使用したシステムやプロンプトを含む完全な使用状況の開示を要求しています。著者は正確性に責任を持ち、剽窃行為がないことを確認する必要があります。
AIテクノロジーの発展に伴い、学術界はこれらのツールの適切な使用方法について合意を形成し、学術的誠実性を維持する必要があります。