AI语言模型:学术界的新挑战与隐忧 人工智能语言模型在学术界引发了新的挑战和担忧。这些先进的AI系统能够生成高质量的文本,包括论文和报告,引发了对学术诚信和原创性的担忧。 主要问题包括: 1. 剽窃和作弊:学生可能利用AI生成作业,而不是自己完成。 2. 研究真实性:AI生成的内容可能被误认为是原创研究。 3. 学术评估:难以区分人类和AI的作品,影响评分和评估过程。 4. 创造力和批判性思维:过度依赖AI可能抑制学生的这些重要技能发展。 5. 数据偏见:AI模型可能复制训练数据中的偏见,导致研究结果失真。 6. 知识产权:AI生成内容的版权归属问题尚未明确。 为应对这些挑战,学术界正在探讨新的政策和工具: - 制定AI使用指南 - 开发AI检测软件 - 重新设计作业和评估方法 - 加强对AI伦理和使用的教育 尽管存在担忧,AI也为学术研究带来机遇,如辅助文献综述和数据分析。关键是在利用AI优势的同时,维护学术诚信和教育质量。

生成式AI技术在学术领域的应用日益广泛。

根据《自然》杂志最近的一份报告,生成式人工智能在学术写作中的使用呈爆炸性增长。研究显示,PubMed(最大的生物医学数据库)中10%的摘要疑似涉及人工智能写作,相当于每年约15万篇论文。

柏林应用科技大学的一项研究发现,主流人工智能生成内容检测工具的平均准确率仅为50%,并经常将人类撰写的内容误判为人工智能生成。许多人工智能生成的论文可以通过改写和同义词替换轻松逃避检测。此外,英语母语者使用人工智能工具更难被检测出来。

虽然人工智能工具此前已在学术界广泛使用,但使用生成式人工智能直接输出论文或代笔仍然存在争议。人工智能工具使抄袭变得更容易,可能导致版权侵犯。

人工智能辅助写作并非没有优点。许多学者通过使用生成式人工智能避免了用不熟悉的语言发表论文的麻烦,使他们能够专注于研究本身。许多期刊现在允许使用生成式人工智能工具,但要求作者在论文中披露使用详情。

图宾根大学的研究分析了2010-2024年间PubMed中的1400万篇摘要。他们发现在ChatGPT等生成式人工智能工具出现后,某些修饰性词语的使用出现异常激增。这些词语的频率被用来估算人工智能撰写摘要的比例。

研究人员还发现不同国家在人工智能工具使用上存在差异。他们的数据显示,来自中国和韩国等国家的论文比英语国家的论文更频繁地使用人工智能写作工具。然而,英语国家作者的使用可能更难被检测出来。

生成式人工智能在学术写作中的使用引发了两个主要问题。首先,抄袭变得更容易,因为抄袭者可以使用人工智能以学术期刊风格改写他人的研究,使其难以被检测。其次,人工智能模型可能会输出未注明出处的版权内容,正如《纽约时报》起诉OpenAI的诉讼所示。

为应对人工智能工具使用的扩散,许多公司推出了人工智能生成内容检测工具。然而,这些工具在与生成式人工智能的"猫鼠游戏"中基本失败。柏林应用科技大学的一项研究发现,14种常用的学术人工智能检测工具中,只有5种达到了70%以上的准确率,平均准确率仅为50-60%。

这些检测工具在经过手动编辑或机器改写的人工智能生成内容上表现更差。简单的操作如同义词替换和句子重构可以将检测工具的准确率降至50%以下。该研究得出结论,这些工具的整体检测准确率仅约50%。

检测工具在识别人类撰写的论文方面表现出高准确率。然而,如果作者用母语写一篇原创论文,然后使用翻译软件将其翻译成另一种语言,可能会被误判为人工智能生成。这可能严重损害学者和学生的学术声誉。

然而,生成式人工智能工具确实为一些研究人员带来了便利。沙特阿拉伯国王大学的IT研究员Hend Al-Khalifa分享说,在生成式人工智能工具出现之前,许多英语不熟练的同事在论文写作方面面临重大障碍。现在,这些学者可以专注于研究本身,而不必花太多时间在写作上。

人工智能辅助写作与学术不当行为之间的界限难以界定。马里兰大学的计算机科学家Soheil Feizi认为,使用生成式人工智能改写现有论文内容显然是抄袭。然而,使用人工智能工具辅助表达想法不应受到惩罚。研究人员可以使用详细的提示来生成文本或使用人工智能工具编辑草稿,前提是他们主动披露人工智能工具的使用。

许多期刊已经规范了人工智能工具在学术写作中的使用,而不是完全禁止。《科学》规定人工智能不能被列为共同作者,作者应披露所使用的人工智能系统和提示,并对内容准确性和潜在抄袭负责。《自然》要求研究人员在"研究方法"部分记录生成式人工智能工具的使用。截至2023年10月,排名前100的期刊中有87家制定了使用生成式人工智能工具的指南。

对学术研究中的生成式人工智能工具采取对抗态度可能无法从根本上解决问题。柏林应用科技大学的学者强调,仅通过人工智能检测难以解决学术写作中人工智能的滥用问题。调整注重论文和结果的学术氛围是解决这个问题的关键。