AI时代的学术诚信:科技界如何应对剽窃新挑战

生成式AI技术的兴起引发了学术界对抄袭定义的重新审视。

生成式人工智能在学术写作中的广泛应用引发了关于抄袭界定的争议。ChatGPT等大语言模型(LLM)工具可以提高写作效率,但也使得抄袭行为更难被发现。

许多研究人员认为,在某些情况下可以允许使用AI工具,但应充分披露使用情况。然而,LLM通过消化大量已发表文章来生成文本,这可能类似于"剽窃"。使用这些工具可能会导致研究人员将机器生成的内容冒充为自己的作品,或者生成的文本与他人作品过于相似而未注明来源。

一项对1600名研究人员的调查显示,68%的受访者认为AI将使剽窃行为更容易实施且更难被发现。专家们担心,LLM可以被用来掩饰故意抄袭的文本。

关于使用AI生成的无署名内容是否构成剽窃,存在争议。一些专家认为这应被定义为"未经授权的内容生成",而非剽窃本身。但也有人认为,生成式AI工具侵犯了版权。

自ChatGPT发布以来,AI在学术写作中的应用呈爆炸式增长。研究估计,2024年上半年至少10%的生物医学论文摘要使用了LLM。与英语国家相比,中国、韩国等国家的论文显示出更多使用LLM的迹象。

尽管存在争议,许多研究人员认为AI工具在学术写作中有一定价值,可以提高清晰度、减少语言障碍。但对于何时构成剽窃或违反伦理,人们仍感困惑。

目前,许多学术期刊允许在一定程度上使用LLM,但要求完全公开使用情况,包括所用系统和提示。作者需对准确性负责,并确保不存在抄袭行为。

随着AI技术的发展,学术界需要就如何合理使用这些工具达成共识,以维护学术诚信。