L'écriture par IA provoque une action de défense des droits des auteurs de littérature en ligne

Avec les progrès rapides de la technologie d'intelligence artificielle, les controverses sur les violations de droits par l'IA deviennent de plus en plus évidentes entre les utilisateurs, les créateurs et les plateformes.

01

L'accord d'IA mentionné par l'auteur est une clause contractuelle signée avec la plateforme, qui comprend spécifiquement les éléments suivants :

La partie A peut utiliser tout ou partie du contenu et des informations connexes des œuvres sous contrat (y compris le titre, le résumé, le plan, les chapitres, les personnages, les informations personnelles de l'auteur, l'image de couverture, etc.), les données, le corpus, le texte, les matériaux, etc., pour l'annotation, la construction de données/bases de données synthétiques, le développement de l'IA, l'apprentissage automatique, l'entraînement de modèles, la synthèse profonde, le développement d'algorithmes et d'autres domaines de développement/application de nouvelles technologies connus actuellement ou à développer à l'avenir, y compris, mais sans s'y limiter :

(1) Utilisé pour le développement et l'application de dialogues intelligents, d'édition, de génération, de conversion, de synthèse profonde, de réalité virtuelle, etc. d'œuvres/produits intelligents de texte/image/audiovisuel/voix, etc.

(2) Utilisé pour l'entraînement de modèles d'IA sous toute technologie, ou pour générer des données/bases de données synthétiques à fournir pour l'entraînement de modèles.

(3) Tout autre scénario de développement ou d'application de nouvelles technologies.

Note : La partie A est Tomato, la partie B est l'auteur

Tomato Novel, en tant que plateforme, a rapidement proposé une solution en supprimant la clause relative aux scénarios d'entraînement de modèles d'IA de l'accord original et en fournissant un accord supplémentaire.

Yang Yang, une auteure de Tomato Novel, a également remarqué les dernières clauses supplémentaires et a choisi de continuer à signer. Selon elle, Tomato Novel convient mieux aux nouveaux auteurs. Yang Yang a rejoint Tomato Novel il y a deux mois et vient de terminer un roman de plus de 200 000 mots.

Cependant, tous les auteurs n'approuvent pas, certains publient encore sur les médias sociaux, remettant en question la ponctuation et le paragraphe de l'accord supplémentaire de la plateforme comme étant un "piège", et la relation de confiance entre les deux parties reste à réparer.

L'auteure Ping Ping est mécontente que le contenu soit utilisé pour l'entraînement de l'IA, estimant que le développement de l'IA est une tendance et peut aider le travail en tant qu'outil de production, libérant la main-d'œuvre, "mais ne devrait pas remplacer la main-d'œuvre". Elle espère que Tomato Novel publiera une annonce "promettant de ne pas utiliser de fonctions de rédaction automatique par IA" à l'avenir, avant de signer l'accord supplémentaire.

Les deux auteures mentionnées ci-dessus ont clairement indiqué qu'elles choisiraient de quitter Tomato Novel à l'avenir.

Mais il y a actuellement un autre problème : de nombreux auteurs craignent d'être poursuivis par la plateforme pour avoir divulgué le contenu du contrat. En cas de défaite, les dommages et intérêts représenteraient également une somme importante.

02

Avec le développement rapide de l'intelligence artificielle, des conflits concernant les violations de l'IA entre les utilisateurs ou les créateurs et les plateformes se produisent de temps en temps. Même OpenAI, qui a déclenché la vague de l'IA, a été poursuivi à plusieurs reprises par les médias américains pour avoir utilisé leurs reportages pour l'entraînement de l'IA sans autorisation. En conséquence, OpenAI a commencé à signer des accords de coopération avec les groupes de médias.

La célèbre actrice américaine Scarlett Johansson a également accusé OpenAI d'avoir volé sa voix. L'une des voix intégrées dans le produit ChatGPT-4o de l'entreprise, appelée "Sky", était très similaire à celle de Scarlett. Bien qu'OpenAI ait nié, ils ont finalement suspendu l'utilisation de la voix "Sky".

Meta, qui vient de lancer son modèle le plus puissant, demandera également aux utilisateurs d'Instagram d'accepter que le contenu qu'ils téléchargent soit utilisé pour l'entraînement de l'IA, sinon ils ne pourront pas utiliser la plateforme.

En Chine, Jiemian News a remarqué que certaines startups ne cachent pas le fait qu'elles collectent des reportages ou des articles publiés publiquement, utilisent l'IA pour "laver" le contenu et en tirer profit, et certaines entreprises sont accusées par des artistes de plagier leurs dessins générés par IA.

Concernant ces situations, You Yunting, associé principal du cabinet d'avocats Shanghai Dabang, a déclaré que l'utilisation d'œuvres pour l'entraînement de l'IA sans l'autorisation de l'auteur est soupçonnée de violer d'autres droits d'auteur stipulés dans la loi sur le droit d'auteur. Cependant, jusqu'à présent, il n'y a pas de décision de justice correspondante pour soutenir si l'entraînement constitue une violation. Précisément en raison de cette controverse, même si un tribunal le considère comme une violation, cela ne constitue pas un crime.

You Yunting a ajouté que si une plateforme souhaite utiliser des œuvres pour l'entraînement de l'IA, elle doit négocier séparément avec l'auteur pour parvenir à un nouvel accord. Si elle modifie unilatéralement le contenu de l'accord ou force la signature de l'accord lors de la mise à jour, cela viole le contrat existant et le tribunal ne reconnaîtra pas la validité du nouveau contrat.

Deuxièmement, si la plateforme prétend que l'entraînement de l'IA n'est que pour améliorer la qualité du service et non pour le profit commercial, cela ne tient pas juridiquement, car l'amélioration de la qualité du service commercial par la plateforme vise également le profit, et le tribunal ne reconnaîtra pas la défense de l'entreprise.

03

L'"entraînement de l'IA" généralement effectué par les plateformes a suscité davantage d'inquiétudes chez les créateurs concernant la fuite de contenu privé. Récemment, un internaute a affirmé que WPS aurait "nourri" le contenu non publié des auteurs à l'IA Douyin Dou Bao, car il a pu obtenir le contenu correspondant en interrogeant cette IA.

En réponse, ByteDance a déclaré que ces rumeurs sont totalement infondées, que certaines informations sur les livres sur Dou Bao proviennent d'informations publiques ; Dou Bao et WPS n'ont pas collaboré sous quelque forme que ce soit au niveau de l'entraînement de l'IA, et n'ont pas non plus utilisé de données privées non publiées des utilisateurs pour l'entraînement. WPS a également répondu officiellement que ces questions sont totalement infondées.

Cependant, le premier cas de violation des droits de la personnalité par la génération vocale par IA jugé en première instance par le tribunal de l'Internet de Pékin en avril de cette année peut fournir une référence pour les créateurs de contenu pour défendre leurs droits. Dans cette affaire, le doubleur Yin a découvert qu'une société de logiciels avait traité par IA les œuvres qu'il avait doublées et les avait vendues à des plateformes connexes, et que ces œuvres étaient largement diffusées sur de nombreuses applications célèbres.

Après examen, le tribunal a déterminé que la société de culture et de médias défenderesse jouissait des droits d'auteur et d'autres droits sur les enregistrements sonores, mais cela n'incluait pas le droit d'autoriser d'autres à utiliser la voix du plaignant par IA. Son autorisation à la société de logiciels d'utiliser la voix du plaignant par IA sans le consentement éclairé du plaignant n'avait pas de source légale de droits. Le tribunal a ordonné aux défendeurs concernés de présenter des excuses au plaignant et de verser des dommages et intérêts d'un montant total de 250 000 yuans.

Le tribunal a souligné que même si l'autorisation d'utiliser l'œuvre a été légalement obtenue, cela ne signifie pas qu'il y a le droit de l'utiliser pour l'entraînement de l'IA. Cela indique que les titulaires de droits et les créateurs concernés devraient avoir un certain contrôle sur leurs œuvres, et que des clauses d'autorisation vagues, sans paiement supplémentaire, ne peuvent garantir que la plateforme puisse procéder à l'entraînement de l'IA.

04

Les "Mesures provisoires de gestion des services d'intelligence artificielle générative" (ci-après dénommées "Mesures") mises en œuvre en Chine l'année dernière stipulent que dans le processus de fourniture et d'utilisation des services d'intelligence artificielle générative, il faut respecter les droits de propriété intellectuelle, l'éthique commerciale, etc., et ne pas utiliser les avantages des algorithmes, des données, des plateformes, etc. pour mettre en œuvre des comportements monopolistiques et de concurrence déloyale.

Les "Mesures" imposent également une série de réglementations aux fournisseurs de services d'intelligence artificielle générative, notamment la réalisation légale d'activités de traitement des données d'entraînement, l'assomption de la responsabilité des producteurs de contenu d'information en réseau et des responsables du traitement des informations personnelles, la clarification des groupes d'utilisateurs cibles des services, etc.

Cependant, il existe certaines difficultés pour déterminer les violations de l'IA générative, notamment la définition de l'objet de la violation, le jugement de l'originalité du contenu généré, la collecte de preuves et l'analyse technique, l'incertitude de l'application de la loi, etc.

Deuxièmement, le contenu généré par l'IA générative est fourni à des utilisateurs spécifiques et n'a pas de publicité directe en soi, il n'y aura pas de phénomènes de violation directe à grande échelle, ce qui diffère des violations traditionnelles sur Internet.

Les progrès continus de la technologie de l'IA remettent également en question la "dichotomie idée-expression" du droit, et le critère traditionnel de jugement de la violation "contact + similitude" n'est plus entièrement applicable. L'IA générative peut rapidement apprendre des œuvres humaines et générer différents résultats d'expression, rendant difficile la "dichotomie" claire entre "idée et expression", augmentant ainsi la difficulté de déterminer les violations.

Dans l'ensemble, les dispositions légales existantes ne peuvent pas couvrir complètement tous les scénarios d'application et les formes de génération de l'IA. Pour faire face à ces difficultés, la communauté juridique doit continuellement explorer et améliorer les dispositions légales pertinentes et les normes de détermination des violations, en tenant compte de manière globale des caractéristiques techniques, de l'impact social et d'autres facteurs, afin de parvenir à un jugement raisonnable et à une réglementation efficace des actes de violation de l'IA générative.