L'intégrité académique à l'ère de l'IA : Comment la communauté scientifique fait face aux nouveaux défis du plagiat

L'essor de la technologie d'IA générative a suscité un réexamen de la définition du plagiat dans le milieu universitaire.

L'application généralisée de l'intelligence artificielle générative dans l'écriture académique a suscité des controverses sur la définition du plagiat. Les outils de grands modèles de langage (LLM) comme ChatGPT peuvent améliorer l'efficacité de l'écriture, mais rendent également le plagiat plus difficile à détecter.

De nombreux chercheurs estiment que l'utilisation d'outils d'IA peut être autorisée dans certaines circonstances, mais devrait être pleinement divulguée. Cependant, les LLM génèrent du texte en digérant un grand nombre d'articles publiés, ce qui pourrait s'apparenter à du "plagiat". L'utilisation de ces outils pourrait amener les chercheurs à faire passer le contenu généré par machine pour leur propre travail, ou à générer un texte trop similaire au travail d'autrui sans en citer la source.

Une enquête auprès de 1600 chercheurs a révélé que 68% des répondants pensent que l'IA rendra le plagiat plus facile à commettre et plus difficile à détecter. Les experts craignent que les LLM puissent être utilisés pour dissimuler du texte délibérément plagié.

Il existe un débat sur la question de savoir si l'utilisation de contenu non attribué généré par l'IA constitue du plagiat. Certains experts estiment que cela devrait être défini comme une "génération de contenu non autorisée" plutôt que comme du plagiat en soi. Mais d'autres pensent que les outils d'IA générative violent les droits d'auteur.

Depuis la sortie de ChatGPT, l'utilisation de l'IA dans l'écriture académique a connu une croissance explosive. Les recherches estiment qu'au moins 10% des résumés d'articles biomédicaux au premier semestre 2024 ont utilisé des LLM. Par rapport aux pays anglophones, les articles de pays comme la Chine et la Corée du Sud montrent davantage de signes d'utilisation de LLM.

Malgré la controverse, de nombreux chercheurs estiment que les outils d'IA ont une certaine valeur dans l'écriture académique, pouvant améliorer la clarté et réduire les barrières linguistiques. Mais il reste une confusion quant à ce qui constitue du plagiat ou un manquement à l'éthique.

Actuellement, de nombreuses revues académiques autorisent l'utilisation de LLM dans une certaine mesure, mais exigent une divulgation complète de l'utilisation, y compris les systèmes et les invites utilisés. Les auteurs sont responsables de l'exactitude et doivent s'assurer qu'il n'y a pas de plagiat.

Avec le développement de la technologie de l'IA, le monde académique doit parvenir à un consensus sur l'utilisation appropriée de ces outils pour maintenir l'intégrité académique.