Согласно недавнему отчету в Nature, использование генеративного ИИ в академическом письме резко возросло. Исследования показывают, что 10% аннотаций в PubMed, крупнейшей биомедицинской базе данных, предположительно написаны с помощью ИИ, что эквивалентно примерно 150 000 статей ежегодно.
Исследование Берлинского университета прикладных наук показало, что основные инструменты обнаружения контента, созданного ИИ, имеют среднюю точность всего 50% и часто ошибочно идентифицируют контент, написанный человеком, как созданный ИИ. Многие статьи, созданные ИИ, легко избегают обнаружения путем перефразирования и замены синонимов. Кроме того, использование инструментов ИИ носителями английского языка труднее обнаружить.
Хотя инструменты ИИ широко использовались в академических кругах и раньше, использование генеративного ИИ для непосредственного создания статей или написания текстов остается спорным. Инструменты ИИ облегчают плагиат и могут привести к нарушению авторских прав.
Письмо с помощью ИИ не лишено достоинств. Многие ученые избежали проблем с публикацией статей на незнакомых языках, используя генеративный ИИ, что позволило им сосредоточиться на самом исследовании. Многие журналы теперь разрешают использование инструментов генеративного ИИ, но требуют от авторов раскрытия деталей использования в статье.
Исследование Тюбингенского университета проанализировало 14 миллионов аннотаций в PubMed с 2010 по 2024 год. Они обнаружили аномальный всплеск использования определенных стилистических слов-модификаторов после появления инструментов генеративного ИИ, таких как ChatGPT. Частота этих слов использовалась для оценки доли аннотаций, написанных ИИ.
Исследователи также обнаружили различия в использовании инструментов ИИ в разных странах. Их данные показали, что статьи из таких стран, как Китай и Южная Корея, чаще использовали инструменты ИИ для написания, чем статьи из англоязычных стран. Однако использование авторами из англоязычных стран может быть труднее обнаружить.
Использование генеративного ИИ в академическом письме подняло два основных вопроса. Во-первых, плагиат стал проще, так как плагиаторы могут использовать ИИ для перефразирования чужих исследований в стиле академических журналов, что затрудняет обнаружение. Во-вторых, модели ИИ могут выдавать защищенный авторским правом контент без указания источника, как видно из иска The New York Times против OpenAI.
Для решения проблемы распространения использования инструментов ИИ многие компании запустили инструменты обнаружения контента, созданного ИИ. Однако эти инструменты в значительной степени потерпели неудачу в "игре в кошки-мышки" с генеративным ИИ. Исследование Берлинского университета прикладных наук показало, что только 5 из 14 часто используемых академических инструментов обнаружения ИИ достигли точности более 70%, со средней точностью всего 50-60%.
Эти инструменты обнаружения работают еще хуже с контентом, созданным ИИ, который был вручную отредактирован или перефразирован машиной. Простые операции, такие как замена синонимов и реструктуризация предложений, могут снизить точность инструментов обнаружения до уровня ниже 50%. Исследование пришло к выводу, что общая точность обнаружения этих инструментов составляет всего около 50%.
Инструменты обнаружения показывают высокую точность в идентификации статей, написанных человеком. Однако, если автор пишет оригинальную статью на своем родном языке, а затем использует программное обеспечение для перевода на другой язык, она может быть ошибочно идентифицирована как созданная ИИ. Это может серьезно повредить академической репутации ученых и студентов.
Однако инструменты генеративного ИИ действительно принесли удобство некоторым исследователям. Хенд Аль-Халифа, исследователь в области ИТ из Университета короля Сауда, поделилась, что до появления инструментов генеративного ИИ многие коллеги, не владеющие английским языком, сталкивались со значительными препятствиями при написании статей. Теперь эти ученые могут сосредоточиться на самом исследовании, не тратя слишком много времени на написание.
Границу между письмом с помощью ИИ и академическим проступком трудно определить. Сохейл Фейзи, специалист по компьютерным наукам из Мэрилендского университета, считает, что использование генеративного ИИ для перефразирования существующего содержания статьи явно является плагиатом. Однако использование инструментов ИИ для помощи в выражении идей не должно наказываться. Исследователи могут использовать подробные запросы для генерации текста или использовать инструменты ИИ для редактирования черновиков, при условии, что они активно раскрывают использование инструментов ИИ.
Многие журналы регулируют использование инструментов ИИ в академическом письме, не запрещая их полностью. Science постановляет, что ИИ не может быть указан в качестве соавтора, и авторы должны раскрывать используемые системы ИИ и запросы, а также нести ответственность за точность содержания и возможный плагиат. Nature требует от исследователей записывать использование инструментов генеративного ИИ в разделе "Методы исследования". По состоянию на октябрь 2023 года 87 из 100 лучших журналов установили руководящие принципы использования инструментов генеративного ИИ.
Занятие антагонистической позиции по отношению к инструментам генеративного ИИ в академических исследованиях может не решить проблему в корне. Ученые из Берлинского университета прикладных наук подчеркнули, что неправильное использование ИИ в академическом письме трудно решить только с помощью обнаружения ИИ. Ключом к решению этой проблемы является корректировка академического климата, который фокусируется на статьях и результатах.