Широкое применение генеративного искусственного интеллекта в академическом письме вызвало споры о определении плагиата. Инструменты больших языковых моделей (LLM), такие как ChatGPT, могут повысить эффективность письма, но также затрудняют обнаружение плагиата.
Многие исследователи считают, что в некоторых случаях использование инструментов ИИ может быть разрешено, но должно быть полностью раскрыто. Однако LLM генерируют текст, переваривая большое количество опубликованных статей, что может быть похоже на "плагиат". Использование этих инструментов может привести к тому, что исследователи выдадут машинно-сгенерированный контент за свою собственную работу или создадут текст, слишком похожий на работу других без указания источника.
Опрос 1600 исследователей показал, что 68% респондентов считают, что ИИ сделает плагиат легче осуществимым и труднее обнаруживаемым. Эксперты обеспокоены тем, что LLM могут быть использованы для маскировки намеренно плагиатированного текста.
Существуют разногласия относительно того, является ли использование неподписанного контента, сгенерированного ИИ, плагиатом. Некоторые эксперты считают, что это следует определять как "несанкционированную генерацию контента", а не сам плагиат. Но есть и те, кто считает, что генеративные инструменты ИИ нарушают авторские права.
С момента выпуска ChatGPT использование ИИ в академическом письме взрывообразно выросло. Исследования оценивают, что по крайней мере 10% аннотаций биомедицинских статей в первой половине 2024 года использовали LLM. По сравнению с англоязычными странами, статьи из Китая, Кореи и других стран показывают больше признаков использования LLM.
Несмотря на споры, многие исследователи считают, что инструменты ИИ имеют определенную ценность в академическом письме, повышая ясность и уменьшая языковые барьеры. Однако остается путаница относительно того, когда это составляет плагиат или нарушение этики.
В настоящее время многие академические журналы разрешают использование LLM в определенной степени, но требуют полного раскрытия использования, включая используемые системы и подсказки. Авторы несут ответственность за точность и должны обеспечить отсутствие плагиата.
По мере развития технологий ИИ академическому сообществу необходимо достичь консенсуса относительно разумного использования этих инструментов для поддержания академической честности.