AI時代的學術誠信:科學界如何應對抄襲新挑戰

生成式AI技術的興起引發了學術界對抄襲定義的重新審視。

生成式人工智能在學術寫作中的廣泛應用引發了關於抄襲界定的爭議。ChatGPT等大語言模型(LLM)工具可以提高寫作效率,但也使得抄襲行為更難被發現。

許多研究人員認為,在某些情況下可以允許使用AI工具,但應充分披露使用情況。然而,LLM通過消化大量已發表文章來生成文本,這可能類似於「剽竊」。使用這些工具可能會導致研究人員將機器生成的內容冒充為自己的作品,或者生成的文本與他人作品過於相似而未註明來源。

一項對1600名研究人員的調查顯示,68%的受訪者認為AI將使剽竊行為更容易實施且更難被發現。專家們擔心,LLM可以被用來掩飾故意抄襲的文本。

關於使用AI生成的無署名內容是否構成剽竊,存在爭議。一些專家認為這應被定義為「未經授權的內容生成」,而非剽竊本身。但也有人認為,生成式AI工具侵犯了版權。

自ChatGPT發布以來,AI在學術寫作中的應用呈爆炸式增長。研究估計,2024年上半年至少10%的生物醫學論文摘要使用了LLM。與英語國家相比,中國、韓國等國家的論文顯示出更多使用LLM的跡象。

儘管存在爭議,許多研究人員認為AI工具在學術寫作中有一定價值,可以提高清晰度、減少語言障礙。但對於何時構成剽竊或違反倫理,人們仍感困惑。

目前,許多學術期刊允許在一定程度上使用LLM,但要求完全公開使用情況,包括所用系統和提示。作者需對準確性負責,並確保不存在抄襲行為。

隨著AI技術的發展,學術界需要就如何合理使用這些工具達成共識,以維護學術誠信。