OpenAI a développé un outil pour détecter le contenu généré par l'IA, avec une précision atteignant 99,9%. Cet outil a été proposé dès novembre 2022, mais n'a toujours pas été rendu public.
Les principales raisons sont doubles :
- Aspects techniques :
- Le taux de réussite initial n'était que de 26%, puis a été porté à 99,9%
- Inquiétudes internes quant à l'impact potentiel sur la qualité d'écriture de ChatGPT
- Risque de contournement, par exemple en effaçant le filigrane par traduction
- Préférences des utilisateurs :
- Les sondages montrent que seulement 1/4 des personnes dans le monde soutiennent l'ajout d'outils de détection
- Près de 30% des utilisateurs de ChatGPT déclarent qu'ils réduiraient leur utilisation si un filigrane était déployé
- L'impact pourrait être plus important pour les utilisateurs non anglophones
Il y a des controverses internes chez OpenAI. Les partisans estiment que cela favoriserait le développement de l'écosystème, les opposants craignent une perte d'utilisateurs. L'outil n'a toujours pas été publié.
Outre OpenAI, des entreprises comme Google et Apple développent également des outils similaires, certains sont en test interne mais pas encore officiellement lancés.
Selon les enquêtes, les utilisateurs utilisent principalement ChatGPT pour l'écriture (21%) et les devoirs (18%), ce qui pourrait être l'une des raisons de l'opposition des utilisateurs à la technologie de détection.
OpenAI prévoit d'élaborer un plan d'ici l'automne pour influencer la perception du public sur la transparence de l'IA. Cependant, aucune stratégie spécifique n'a encore été annoncée.