AI era da integridade acadêmica: Como a comunidade científica enfrenta novos desafios de plágio

O surgimento da tecnologia de IA generativa provocou uma reavaliação da definição de plágio no meio acadêmico.

A ampla aplicação da inteligência artificial generativa na escrita acadêmica tem gerado controvérsias sobre a definição de plágio. Ferramentas de grandes modelos de linguagem (LLM) como o ChatGPT podem aumentar a eficiência da escrita, mas também tornam o plágio mais difícil de ser detectado.

Muitos pesquisadores acreditam que o uso de ferramentas de IA pode ser permitido em certas circunstâncias, mas deve ser totalmente divulgado. No entanto, os LLMs geram texto digerindo uma grande quantidade de artigos publicados, o que pode ser semelhante ao "plágio". O uso dessas ferramentas pode levar os pesquisadores a passar o conteúdo gerado por máquina como seu próprio trabalho, ou gerar texto muito semelhante ao trabalho de outros sem atribuição.

Uma pesquisa com 1600 pesquisadores mostrou que 68% dos entrevistados acreditam que a IA tornará o plágio mais fácil de cometer e mais difícil de detectar. Os especialistas temem que os LLMs possam ser usados para mascarar texto deliberadamente plagiado.

Há debate sobre se o uso de conteúdo não atribuído gerado por IA constitui plágio. Alguns especialistas argumentam que isso deve ser definido como "geração de conteúdo não autorizada", em vez de plágio em si. Mas outros argumentam que as ferramentas de IA generativa infringem direitos autorais.

Desde o lançamento do ChatGPT, o uso de IA na escrita acadêmica cresceu exponencialmente. Pesquisas estimam que pelo menos 10% dos resumos de artigos biomédicos no primeiro semestre de 2024 usaram LLMs. Artigos de países como China e Coreia do Sul mostram mais sinais de uso de LLMs em comparação com países de língua inglesa.

Apesar da controvérsia, muitos pesquisadores acreditam que as ferramentas de IA têm algum valor na escrita acadêmica, podendo melhorar a clareza e reduzir as barreiras linguísticas. Mas há confusão sobre o que constitui plágio ou conduta antiética.

Atualmente, muitas revistas acadêmicas permitem algum uso de LLMs, mas exigem total divulgação, incluindo os sistemas e prompts usados. Os autores são responsáveis pela precisão e por garantir que não haja plágio.

À medida que a tecnologia de IA evolui, a comunidade acadêmica precisa chegar a um consenso sobre como usar essas ferramentas de forma responsável para manter a integridade acadêmica.