El uso generalizado de la inteligencia artificial generativa en la escritura académica ha provocado controversia sobre la definición de plagio. Herramientas como ChatGPT y otros modelos de lenguaje grande (LLM) pueden mejorar la eficiencia de la escritura, pero también dificultan la detección del plagio.
Muchos investigadores creen que el uso de herramientas de IA puede permitirse en ciertas circunstancias, pero debe divulgarse completamente. Sin embargo, los LLM generan texto al digerir grandes cantidades de artículos publicados, lo que podría considerarse similar al "plagio". El uso de estas herramientas podría llevar a los investigadores a presentar contenido generado por máquinas como propio, o a generar texto demasiado similar al trabajo de otros sin atribución.
Una encuesta a 1600 investigadores mostró que el 68% cree que la IA facilitará el plagio y lo hará más difícil de detectar. Los expertos temen que los LLM puedan usarse para encubrir texto plagiado intencionalmente.
Existe debate sobre si el uso de contenido generado por IA sin atribución constituye plagio. Algunos expertos sugieren definirlo como "generación de contenido no autorizada" en lugar de plagio. Otros argumentan que las herramientas de IA generativa infringen los derechos de autor.
Desde el lanzamiento de ChatGPT, el uso de IA en la escritura académica ha crecido exponencialmente. Se estima que al menos el 10% de los resúmenes de artículos biomédicos en la primera mitad de 2024 utilizaron LLM. Los artículos de países como China y Corea del Sur muestran más signos de uso de LLM en comparación con los países de habla inglesa.
A pesar de la controversia, muchos investigadores ven valor en las herramientas de IA para la escritura académica, mejorando la claridad y reduciendo las barreras lingüísticas. Sin embargo, existe confusión sobre cuándo constituye plagio o falta de ética.
Actualmente, muchas revistas académicas permiten cierto uso de LLM, pero requieren divulgación completa, incluyendo los sistemas y prompts utilizados. Los autores son responsables de la precisión y deben asegurarse de que no haya plagio.
A medida que la tecnología de IA evoluciona, la comunidad académica necesita llegar a un consenso sobre el uso apropiado de estas herramientas para mantener la integridad académica.