AI escrita provoca ação de defesa de direitos de autores de literatura online

Com o rápido avanço da tecnologia de inteligência artificial, as controvérsias sobre violação de direitos por IA estão se tornando cada vez mais proeminentes entre usuários, criadores e plataformas.

01

O protocolo de IA mencionado pelo autor refere-se a uma cláusula contratual ao assinar com a plataforma, que envolve especificamente o seguinte conteúdo:

A Parte A pode usar todo ou parte do conteúdo e informações relacionadas das obras contratadas (incluindo título da obra, sinopse, esboço, capítulos, personagens, informações pessoais do autor, imagem de capa, etc.), dados, corpus, textos, materiais, etc., para anotação, construção de dados/bancos de dados sintéticos, desenvolvimento de IA/inteligência artificial, aprendizado de máquina, treinamento de modelos, síntese profunda, desenvolvimento de algoritmos e outros campos de desenvolvimento/aplicação de novas tecnologias conhecidas atualmente ou desenvolvidas no futuro, incluindo, mas não se limitando a:

(1) Uso para desenvolvimento e aplicação de diálogo inteligente, edição, geração, conversão, síntese profunda, tecnologia de realidade virtual, etc. de obras/produtos inteligentes de texto/imagem/audiovisual/voz.

(2) Uso para treinamento de modelos de IA/inteligência artificial sob qualquer tecnologia, ou para gerar dados/bancos de dados sintéticos para fornecer ao treinamento de modelos.

(3) Quaisquer outros cenários de desenvolvimento ou aplicação de novas tecnologias.

Nota: A Parte A é a Fanqie, a Parte B é o autor

A Fanqie Novel, como plataforma, rapidamente apresentou uma solução, removendo a cláusula de cenários de treinamento de modelos de IA do acordo original e fornecendo um acordo suplementar.

A autora Yang Yang da Fanqie Novel também notou as cláusulas suplementares mais recentes e optou por continuar assinando. Em sua opinião, a Fanqie Novel é mais adequada para novos autores. Yang Yang ingressou na Fanqie Novel há dois meses e recentemente concluiu um romance de mais de 200.000 palavras.

No entanto, nem todos os autores aprovaram, com alguns ainda postando nas mídias sociais, questionando se a pontuação e os parágrafos do acordo suplementar da plataforma estão "cavando buracos", e a relação de confiança entre as duas partes ainda precisa ser reparada.

A autora Ping Ping está insatisfeita com o uso de seu conteúdo para treinamento de IA, acreditando que o desenvolvimento da IA é uma tendência e pode auxiliar o trabalho como ferramenta de produção, liberando mão de obra, "mas não deve substituir a mão de obra". Ela espera que a Fanqie Novel possa emitir um anúncio "prometendo não usar funções de 'escrita com um clique' de IA" no futuro, antes de assinar o acordo suplementar.

Ambas as autoras mencionadas acima expressaram claramente que escolherão deixar a Fanqie Novel no futuro.

Mas agora há outro problema: muitos autores temem ser processados pela plataforma por vazar o conteúdo do contrato. Se perderem o processo, a indenização também seria uma quantia considerável.

02

Com o rápido desenvolvimento da inteligência artificial, disputas sobre violação de direitos de IA entre usuários ou criadores e plataformas ocorrem ocasionalmente. Mesmo a OpenAI, que desencadeou a onda de IA, foi processada várias vezes pela mídia americana por usar suas reportagens para treinamento de IA sem permissão. Como resultado, a OpenAI começou a assinar acordos de cooperação com grupos de mídia.

A famosa atriz americana Scarlett Johansson também acusou a OpenAI de roubar sua voz. Uma das vozes incorporadas no produto ChatGPT-4o da empresa, chamada "Sky", era muito semelhante à voz de Scarlett. Embora a OpenAI tenha negado, acabou suspendendo o uso da voz "Sky".

A Meta, que acabou de lançar seu modelo mais poderoso, também exigirá que os usuários do Instagram concordem que o conteúdo carregado seja usado para treinamento de IA, caso contrário, não poderão usar a plataforma.

Na China, a Jiemian News notou que algumas startups não evitam usar IA para "lavar" conteúdo coletando reportagens ou artigos publicados publicamente para lucrar, e algumas empresas de IA de geração de imagens foram acusadas de plágio por artistas.

Quanto a essas situações, You Yunting, sócio sênior do escritório de advocacia Shanghai Dabang, afirmou que usar obras para treinamento de IA sem a autorização do autor pode violar outros direitos de autor estipulados na lei de direitos autorais. No entanto, até agora, não há decisões judiciais correspondentes para apoiar se o treinamento constitui violação. Devido a certa controvérsia, mesmo que seja considerado uma violação pelo tribunal, não constitui um crime.

You Yunting acrescentou que se a plataforma usar as obras para treinamento de IA, precisa negociar separadamente com o autor para chegar a um novo acordo. Se o conteúdo do acordo for alterado unilateralmente ou o acordo for assinado forçadamente durante a atualização, isso violará o contrato existente e o tribunal não reconhecerá a validade do novo contrato.

Em segundo lugar, se a plataforma alegar que o treinamento de IA é apenas para melhorar a qualidade do serviço e não para lucro comercial, isso não se sustenta legalmente, pois melhorar a qualidade do serviço comercial da plataforma também visa o lucro, e o tribunal não aceitará a defesa da empresa.

03

O "treinamento de IA" amplamente realizado pelas plataformas levantou ainda mais preocupações dos criadores sobre o vazamento de conteúdo privado. Recentemente, um usuário da internet alegou que o WPS supostamente "alimentou" o conteúdo não publicado do autor para o Douyin Dou Bao AI, pois o conteúdo correspondente foi questionado nessa IA.

Em resposta, a ByteDance afirmou que os rumores relacionados são completamente infundados, e algumas informações bibliográficas no Dou Bao vêm de informações públicas; o Dou Bao e o WPS não realizaram nenhuma forma de cooperação no nível de treinamento de IA, nem usaram quaisquer dados privados não publicados dos usuários para treinamento. O WPS oficial também respondeu que as questões relacionadas são completamente infundadas.

No entanto, o primeiro caso de violação de direitos de personalidade por geração de voz por IA no país, julgado em primeira instância pelo Tribunal da Internet de Pequim em abril deste ano, pode fornecer uma referência para os criadores de conteúdo defenderem seus direitos. Neste caso, o dublador Yin descobriu que uma empresa de software processou com IA suas obras de dublagem e as vendeu para plataformas relevantes, e as obras circularam amplamente em vários aplicativos famosos.

Após o julgamento, o tribunal determinou que a empresa de mídia cultural ré tem direitos autorais e outros direitos sobre as gravações de som, mas não inclui o direito de autorizar outros a usar a voz do autor para IA sem o conhecimento e consentimento do autor. O tribunal ordenou que os réus relevantes se desculpassem com o autor e pagassem uma indenização total de 250.000 yuans.

O tribunal apontou que, mesmo que a autorização da obra tenha sido obtida legalmente, isso não significa que há o direito de usá-la para treinamento de IA. Isso indica que os titulares de direitos relevantes e criadores devem ter o controle correspondente sobre suas obras, e cláusulas de autorização vagas, sem pagamento adicional de consideração, não podem garantir que a plataforma possa realizar treinamento de IA.

04

As "Medidas Provisórias para a Gestão de Serviços de Inteligência Artificial Generativa" (doravante referidas como "Medidas") implementadas na China no ano passado estipulam que, no processo de fornecimento e uso de serviços de inteligência artificial generativa, devem ser respeitados os direitos de propriedade intelectual, a ética comercial, etc., e não devem ser utilizadas vantagens de algoritmos, dados, plataformas, etc., para implementar comportamentos monopolistas e de concorrência desleal.

As "Medidas" também estabelecem uma série de regulamentos para os provedores de serviços de inteligência artificial generativa, incluindo a realização legal de atividades de processamento de dados de treinamento, a assunção de responsabilidades como produtores de conteúdo de informações de rede e processadores de informações pessoais, a especificação clara do público-alvo do serviço, etc.

No entanto, há certa dificuldade em determinar a violação de direitos pela IA generativa, incluindo a definição do objeto de violação, o julgamento da originalidade do conteúdo gerado, a coleta de evidências e análise técnica, a incerteza na aplicação da lei e outros problemas.

Em segundo lugar, o conteúdo gerado pela IA generativa é fornecido a usuários específicos e não tem publicidade direta em si, não havendo fenômenos de violação direta em larga escala, o que é diferente da violação tradicional de direitos na internet.

O contínuo progresso da tecnologia de IA também impacta a "dicotomia ideia-expressão" da lei, e o critério tradicional de julgamento de violação de "acesso + similaridade" não é mais totalmente aplicável. A IA generativa pode aprender rapidamente obras humanas e gerar resultados de expressão diferentes, tornando difícil a "dicotomia" clara entre "ideia e expressão", aumentando assim a dificuldade de determinar a violação.

Em geral, as disposições legais existentes dificilmente podem cobrir completamente todos os cenários de aplicação e formas de geração da IA. Para enfrentar essas dificuldades, a comunidade jurídica precisa explorar e aperfeiçoar continuamente as disposições legais relevantes e os critérios de determinação de violação, considerando de forma abrangente fatores como características técnicas, impacto social, etc., para alcançar uma determinação razoável e regulamentação eficaz dos atos de violação pela IA generativa.