ChatGPT ne peut échapper à la vigilance juridique pour les articles académiques : l'outil anti-triche d'OpenAI sera bientôt disponible

Les débats internes chez OpenAI concernant la publication de modèles d'IA tels que ChatGPT ont duré plus de deux ans. Les dirigeants de l'entreprise ont eu du mal à trouver un consensus sur l'équilibre entre sécurité et innovation, ce qui a entraîné un processus décisionnel prolongé. Ce débat continu met en lumière les questions éthiques complexes liées au développement de l'IA.

OpenAI a développé un outil pour détecter le contenu généré par l'IA, avec une précision atteignant 99,9%. Cet outil a été proposé dès novembre 2022, mais n'a toujours pas été rendu public.

Les principales raisons sont doubles :

  1. Aspects techniques :
  • Le taux de réussite initial n'était que de 26%, puis a été porté à 99,9%
  • Inquiétudes internes quant à l'impact potentiel sur la qualité d'écriture de ChatGPT
  • Risque de contournement, par exemple en effaçant le filigrane par traduction
  1. Préférences des utilisateurs :
  • Les sondages montrent que seulement 1/4 des personnes dans le monde soutiennent l'ajout d'outils de détection
  • Près de 30% des utilisateurs de ChatGPT déclarent qu'ils réduiraient leur utilisation si un filigrane était déployé
  • L'impact pourrait être plus important pour les utilisateurs non anglophones

Il y a des controverses internes chez OpenAI. Les partisans estiment que cela favoriserait le développement de l'écosystème, les opposants craignent une perte d'utilisateurs. L'outil n'a toujours pas été publié.

Outre OpenAI, des entreprises comme Google et Apple développent également des outils similaires, certains sont en test interne mais pas encore officiellement lancés.

Selon les enquêtes, les utilisateurs utilisent principalement ChatGPT pour l'écriture (21%) et les devoirs (18%), ce qui pourrait être l'une des raisons de l'opposition des utilisateurs à la technologie de détection.

OpenAI prévoit d'élaborer un plan d'ici l'automne pour influencer la perception du public sur la transparence de l'IA. Cependant, aucune stratégie spécifique n'a encore été annoncée.