Según un informe reciente en Nature, el uso de IA generativa en la escritura académica ha experimentado un crecimiento explosivo. La investigación muestra que el 10% de los resúmenes en PubMed, la mayor base de datos biomédica, se sospecha que involucran escritura por IA, lo que equivale a aproximadamente 150,000 artículos anualmente.
Un estudio de la Universidad de Ciencias Aplicadas de Berlín encontró que las herramientas convencionales de detección de contenido generado por IA tienen una precisión promedio de solo el 50%, y a menudo identifican erróneamente el contenido escrito por humanos como generado por IA. Muchos artículos generados por IA pueden evadir fácilmente la detección mediante paráfrasis y sustitución de sinónimos. Además, el uso de herramientas de IA por hablantes nativos de inglés es más difícil de detectar.
Aunque las herramientas de IA se han utilizado ampliamente en la academia antes, usar IA generativa para producir directamente artículos o escribir como fantasma sigue siendo controvertido. Las herramientas de IA facilitan el plagio y pueden llevar a infracciones de derechos de autor.
La escritura asistida por IA no carece de méritos. Muchos académicos han evitado el problema de publicar artículos en idiomas desconocidos utilizando IA generativa, permitiéndoles centrarse en la investigación en sí. Muchas revistas ahora permiten el uso de herramientas de IA generativa pero requieren que los autores revelen los detalles de uso en el artículo.
El estudio de la Universidad de Tübingen analizó 14 millones de resúmenes en PubMed de 2010 a 2024. Encontraron un aumento anormal en el uso de ciertas palabras estilísticas modificadoras después de la aparición de herramientas de IA generativa como ChatGPT. La frecuencia de estas palabras se utilizó para estimar la proporción de resúmenes escritos por IA.
Los investigadores también encontraron diferencias en el uso de herramientas de IA entre países. Sus datos mostraron que los artículos de países como China y Corea del Sur utilizaban herramientas de escritura de IA con más frecuencia que los de países de habla inglesa. Sin embargo, el uso por autores de países de habla inglesa puede ser más difícil de detectar.
El uso de IA generativa en la escritura académica ha planteado dos problemas principales. Primero, el plagio se ha vuelto más fácil, ya que los plagiadores pueden usar IA para parafrasear la investigación de otros en estilo de revista académica, dificultando su detección. Segundo, los modelos de IA pueden producir contenido con derechos de autor sin atribución, como se vio en la demanda de The New York Times contra OpenAI.
Para abordar la proliferación del uso de herramientas de IA, muchas empresas han lanzado herramientas de detección de contenido generado por IA. Sin embargo, estas herramientas han fracasado en gran medida en el "juego del gato y el ratón" con la IA generativa. Un estudio de la Universidad de Ciencias Aplicadas de Berlín encontró que solo 5 de 14 herramientas comunes de detección de IA académica lograron una precisión superior al 70%, con una precisión promedio de solo 50-60%.
Estas herramientas de detección funcionan aún peor con contenido generado por IA que ha sido editado manualmente o parafraseado por máquina. Operaciones simples como el reemplazo de sinónimos y la reestructuración de oraciones pueden reducir la precisión de las herramientas de detección a menos del 50%. El estudio concluyó que la precisión general de detección de estas herramientas es de solo alrededor del 50%.
Las herramientas de detección muestran alta precisión en la identificación de artículos escritos por humanos. Sin embargo, si un autor escribe un artículo original en su idioma nativo y luego usa software de traducción para traducirlo a otro idioma, puede ser identificado erróneamente como generado por IA. Esto podría dañar severamente la reputación académica de académicos y estudiantes.
Sin embargo, las herramientas de IA generativa han traído conveniencia a algunos investigadores. Hend Al-Khalifa, investigadora de TI en la Universidad King Saud, compartió que antes de las herramientas de IA generativa, muchos colegas no competentes en inglés enfrentaban obstáculos significativos en la escritura de artículos. Ahora, estos académicos pueden centrarse en la investigación en sí sin gastar demasiado tiempo en la escritura.
El límite entre la escritura asistida por IA y la mala conducta académica es difícil de definir. Soheil Feizi, científico informático de la Universidad de Maryland, cree que usar IA generativa para parafrasear contenido de artículos existentes es claramente plagio. Sin embargo, usar herramientas de IA para ayudar a expresar ideas no debería ser castigado. Los investigadores pueden usar indicaciones detalladas para generar texto o usar herramientas de IA para editar borradores, siempre que revelen activamente el uso de herramientas de IA.
Muchas revistas han regulado el uso de herramientas de IA en la escritura académica sin prohibirlas por completo. Science estipula que la IA no puede ser listada como coautora, y los autores deben revelar los sistemas de IA y las indicaciones utilizadas, y ser responsables de la precisión del contenido y el posible plagio. Nature requiere que los investigadores registren el uso de herramientas de IA generativa en la sección "Métodos de Investigación". A partir de octubre de 2023, 87 de las 100 revistas mejor clasificadas habían establecido pautas para el uso de herramientas de IA generativa.
Tomar una postura antagónica hacia las herramientas de IA generativa en la investigación académica puede no resolver el problema de raíz. Los académicos de la Universidad de Ciencias Aplicadas de Berlín enfatizaron que el mal uso de la IA en la escritura académica es difícil de abordar solo mediante la detección de IA. Ajustar el clima académico que se centra en artículos y resultados es clave para resolver este problema.