01
El protocolo de IA al que se refiere el autor es una cláusula contractual al firmar con la plataforma, que específicamente incluye lo siguiente:
La Parte A puede utilizar todo o parte del contenido e información relacionada de las obras contratadas (incluyendo el título de la obra, resumen, esquema, capítulos, personajes, información personal del autor, imagen de portada, etc.), datos, corpus, textos, materiales, etc., para etiquetado, construcción de datos/bases de datos sintéticos, desarrollo de IA/inteligencia artificial, aprendizaje automático, entrenamiento de modelos, síntesis profunda, desarrollo de algoritmos y otros campos de desarrollo/aplicación de nuevas tecnologías conocidas actualmente o desarrolladas en el futuro, incluyendo pero no limitado a:
(1) Desarrollo y aplicación de diálogo inteligente, edición, generación, conversión, síntesis profunda, tecnología de realidad virtual, etc. de obras/productos de texto/imagen/audiovisual/voz inteligentes.
(2) Entrenamiento de modelos de IA/inteligencia artificial bajo cualquier tecnología, o generación de datos/bases de datos sintéticos para proporcionar al entrenamiento de modelos.
(3) Cualquier otro escenario de desarrollo o aplicación de nuevas tecnologías.
Nota: La Parte A es Tomato, la Parte B es el autor
Como plataforma, Tomato Novel rápidamente proporcionó una solución, eliminando la cláusula de escenarios de entrenamiento de modelos de IA del acuerdo original y ofreciendo un acuerdo complementario.
La autora Yang Yang de Tomato Novel también notó las últimas cláusulas complementarias y eligió continuar con el contrato. En su opinión, Tomato Novel es más adecuada para nuevos autores. Yang Yang se unió a Tomato Novel hace dos meses y recientemente completó una novela de más de 200,000 palabras.
Sin embargo, no todos los autores lo aprueban, algunos incluso publicaron en redes sociales cuestionando la puntuación y los párrafos del acuerdo complementario de la plataforma como una "trampa", y la relación de confianza entre ambas partes aún necesita reparación.
La autora Ping Ping está insatisfecha con que su contenido se use para el entrenamiento de IA, cree que el desarrollo de la IA es una tendencia y puede ayudar en el trabajo como herramienta de producción, liberando mano de obra, "pero no debería reemplazar la mano de obra". Espera que Tomato Novel publique un anuncio "prometiendo que no usará funciones de 'escritura con un clic de IA' en el futuro" antes de firmar el acuerdo complementario.
Ambas autoras mencionadas anteriormente indicaron claramente que elegirán dejar Tomato Novel en el futuro.
Pero ahora hay otro problema, muchos autores temen ser demandados por la plataforma por revelar el contenido del contrato. Si pierden el caso, la compensación también sería una suma considerable.
02
Con el rápido desarrollo de la inteligencia artificial, las disputas entre usuarios o creadores y plataformas sobre infracciones de IA ocurren de vez en cuando. Incluso OpenAI, que desencadenó la ola de IA, ha sido demandada varias veces por medios estadounidenses por usar sus informes de noticias para el entrenamiento de IA sin permiso. Como resultado, OpenAI comenzó a firmar acuerdos de cooperación con grupos de medios.
La famosa actriz estadounidense Scarlett Johansson también acusó a OpenAI de robar su voz. Una de las voces incorporadas en el producto ChatGPT-4o de la compañía, "Sky", era muy similar a la voz de Scarlett. Aunque OpenAI lo negó, finalmente suspendió el uso de la voz de "Sky".
Meta, que acaba de lanzar su modelo más poderoso, también requiere que los usuarios de Instagram acepten que el contenido que suben se use para el entrenamiento de IA, de lo contrario no pueden usar la plataforma.
En China, Interface News notó que algunas empresas emergentes no evitan recopilar informes de noticias o artículos publicados públicamente, usar IA para "lavar" el contenido y obtener ganancias, y algunas empresas de dibujo de IA han sido acusadas de plagio por artistas.
Respecto a las situaciones anteriores, You Yunting, socio senior del bufete de abogados Shanghai Dabang, dijo que usar obras para el entrenamiento de IA sin la autorización del autor sospecha de infringir otros derechos de autor estipulados en la ley de derechos de autor. Sin embargo, hasta ahora, no hay sentencias judiciales correspondientes que puedan respaldar si el entrenamiento constituye una infracción. Precisamente porque existe cierta controversia, incluso si un tribunal lo determina como una infracción, no constituye un delito.
You Yunting agregó que si la plataforma usa obras para el entrenamiento de IA, necesita negociar por separado con el autor para llegar a un nuevo acuerdo. Si cambia unilateralmente el contenido del acuerdo o fuerza la firma del acuerdo durante la actualización, viola el contrato existente y el tribunal no reconocerá la validez del nuevo contrato.
En segundo lugar, si la plataforma afirma que el entrenamiento de IA es solo para mejorar la calidad del servicio y no para obtener ganancias comerciales, esto no se sostiene legalmente, porque mejorar la calidad del servicio comercial de la plataforma también es para obtener ganancias, y el tribunal no reconocerá la defensa de la empresa.
03
El "entrenamiento de IA" que las plataformas generalmente realizan ha provocado aún más preocupaciones de los creadores sobre la filtración de contenido privado. Recientemente, un usuario de internet afirmó que WPS supuestamente "alimentó" el contenido no publicado del autor a la IA Douyin Dou Bao, ya que se pudo preguntar sobre el contenido correspondiente en esa IA.
En respuesta, ByteDance dijo que los rumores relacionados son completamente falsos, parte de la información del libro en Dou Bao proviene de información pública; Dou Bao y WPS no han llevado a cabo ninguna forma de cooperación a nivel de entrenamiento de IA, y tampoco han utilizado ningún dato privado no publicado de los usuarios para el entrenamiento. WPS también respondió oficialmente que las preguntas relacionadas son completamente falsas.
Sin embargo, el primer caso de infracción de derechos de personalidad por generación de voz de IA en el país, juzgado en primera instancia por el Tribunal de Internet de Beijing en abril de este año, puede proporcionar una referencia para que los creadores de contenido defiendan sus derechos. En este caso, el actor de doblaje Yin descubrió que una empresa de software había procesado con IA las obras de doblaje que produjo y las vendió a plataformas relevantes, y las obras se difundieron ampliamente en varias aplicaciones conocidas.
Después de la audiencia, el tribunal determinó que la empresa de medios culturales demandada tenía derechos de autor y otros derechos sobre las grabaciones de sonido, pero no incluía el derecho de autorizar a otros a usar la voz del demandante con IA. Su acto de autorizar a la empresa de software a usar la voz del demandante con IA sin el conocimiento y consentimiento del demandante no tenía una fuente legal de derechos. El tribunal ordenó a los demandados relevantes que se disculparan con el demandante y pagaran una compensación por daños de 250,000 yuanes en total.
El tribunal señaló que incluso si se obtiene legalmente la autorización de la obra, no significa que se tenga derecho a someterla a entrenamiento de IA. Esto indica que los titulares de derechos y creadores relevantes deben tener el control correspondiente sobre sus obras, etc., y las cláusulas de autorización vagas, sin pagar una contraprestación adicional, no pueden garantizar que la plataforma pueda realizar entrenamiento de IA.
04
Las "Medidas Provisionales para la Gestión de Servicios de Inteligencia Artificial Generativa" (en adelante, las "Medidas") implementadas en nuestro país el año pasado estipulan que en el proceso de proporcionar y utilizar servicios de inteligencia artificial generativa, se deben respetar los derechos de propiedad intelectual, la ética comercial, etc., y no se deben utilizar algoritmos, datos, ventajas de plataforma, etc., para implementar monopolios y competencia desleal.
Las "Medidas" también establecen una serie de regulaciones para los proveedores de servicios de inteligencia artificial generativa, incluyendo llevar a cabo legalmente actividades de procesamiento de datos de entrenamiento, asumir la responsabilidad de los productores de contenido de información en red y la responsabilidad de los procesadores de información personal, especificar los grupos de usuarios aplicables del servicio, etc.
Sin embargo, determinar la infracción de la IA generativa presenta ciertas dificultades, incluyendo la definición del objeto de infracción, el juicio de originalidad del contenido generado, la recopilación de evidencia y el análisis técnico, la incertidumbre en la aplicación de la ley y otros problemas.
En segundo lugar, el contenido generado por la IA generativa se proporciona a usuarios específicos y no tiene publicidad directa en sí mismo, por lo que no aparecerán fenómenos de infracción directa a gran escala, lo cual es diferente de las infracciones tradicionales en la red.
El continuo progreso de la tecnología de IA también ha impactado la "dicotomía idea-expresión" de la ley, y el criterio tradicional de juicio de infracción de "acceso + similitud" ya no es completamente aplicable. La IA generativa puede aprender rápidamente obras humanas y generar diferentes resultados de expresión, lo que dificulta la "dicotomía" clara entre "ideas y expresiones", aumentando así la dificultad de determinar la infracción.
En general, las disposiciones legales existentes difícilmente pueden cubrir completamente todos los escenarios de aplicación y formas de generación de IA. Para abordar estas dificultades, la comunidad legal necesita explorar y perfeccionar continuamente las disposiciones legales relevantes y los estándares de determinación de infracción, considerando de manera integral factores como las características técnicas, el impacto social, etc., para lograr una determinación razonable y una regulación efectiva de los actos de infracción de la IA generativa.