01
作者所指的AI协议,是与平台签约时的一项合同条款,具体涉及以下内容:
甲方可将签约作品的全部部分内容及相关信息(包括作品名称、简介、大纲、章节、人物、作者个人信息、封面图等)、数据、语料、文本、素材等,用于标注、合成数据/数据库建设、Al人工智能研发、机器学习、模型训练、深度合成、算法研发等目前已知或未来开发的新技术研发/应用领域,包括但不限于:
(1)用于智能对话、智能文本/图像/视听/语音等作品/成品的编辑、生成、转换、深度合成、虛拟现实技术等的研发和应用。
(2)用于任何技术下的Al人工智能模型训练,或用于生成提供给模型训练的合成数据/数据库。
(3)其他任何新技术研发或应用场景。
注:甲方为番茄,乙方为作者
作为平台方的番茄小说很快给出了解决方案,删除了原协议中Al模型训练场景条款,给出了补充协议。
番茄小说作者羊羊也注意到了最新的补充条款,她选择继续签约。在她看来,番茄小说比较适合新作者。羊羊是在两个月前入驻番茄小说的,最近刚完结一篇20余万字的小说。
但并非所有作者都给予认可,其中一些还在社交媒体发文,质疑平台补充协议的标点符号、分段是在"挖坑",双方的信任关系仍有待修复。
作者平平对于内容被用于AI训练感到不满,认为AI发展是趋势,作为生产工具可以协助工作,解放劳动力,"但不应该是取代劳动力"。她希望番茄小说能发布公告"承诺未来不会使用AI一键成文"等功能,之后再签补充协议。
上述两位作者都明确表示,未来会选择离开番茄小说。
但眼下还有另一重麻烦,不少作者担心会被平台方起诉泄露合同内容。一旦败诉,赔偿金也会是一笔不小的费用。
02
伴随着人工智能的高速发展,用户或创作者与平台间围绕AI侵权的纠纷时有发生。即便是掀起AI大潮的OpenAI也多次被美国媒体状告,在未经允许的前提下,后者的新闻报道被用于AI训练。为此,OpenAI开始与媒体集团签署合作协议。
美国知名女演员斯嘉丽·约翰逊也曾指责OpenAI盗用她的声音。该公司所推出的产品ChatGPT-4o中内置的语音之一"Sky",与斯嘉丽的声音极为相似。尽管OpenAI予以否认,但最终暂停使用了"Sky"的声音。
刚刚发布最强大模型的Meta,也会要求社交媒体Instagram用户同意上传的内容被用于AI训练,否则无法使用该平台。
而在国内,界面新闻注意到,部分创业公司并不避讳通过采集公开发表的新闻报道或文章,用AI"洗稿"生产内容并盈利,也有一些公司的AI绘图被画师质疑抄袭。
对于上述情况,上海大邦律师事务所高级合伙人游云庭表示,在未取得作者授权的情况下,将作品用于AI训练,涉嫌侵犯著作权法上规定的著作权的其他权利。但到目前为止,训练是否构成侵权,尚没有相应的法院判决可以来支持。正因为有一定的争议性,即使被法院认定为侵权,也不构成犯罪。
游云庭补充称,如果平台将作品用于AI训练,需要跟作者单独协商达成新协议。如果单方面改变协议内容,或在更新时强制签署协议,就违反了现有合同,法院不会认可新合同的效力。
其次,如果平台声称AI训练只是为了提升服务质量,而非商业盈利,这在法律上是站不住脚的,因为平台提升商业服务质量也是为了盈利,法院不会认可企业的抗辩。
03
平台普遍在进行的"AI训练"更进一步引发了创作者对私有内容泄露的担忧。近日,有网友称,WPS疑似把作者未公开内容"喂"给抖音豆包AI,因在该AI上问出了相应内容。
对此,字节跳动称相关传言完全不实,豆包上部分书目信息来源于公开信息;豆包与WPS在AI训练层面并未开展任何形式的合作,也没有使用任何用户未公开的私人数据进行训练。而WPS官方也回应称,相关问题完全失实。
不过,今年4月北京互联网法院一审开庭宣判的全国首例AI生成声音人格权侵权案,可以为内容创作者们维权提供一种借鉴。在该案中,配音师殷某发现,某软件公司将其配音制作的作品AI化处理后出售给相关平台,该作品在多个知名App广泛流传。
法院经审理认定,被告文化传媒公司对录音制品享有著作权等权利,但不包括授权他人对原告声音进行AI化使用的权利,其在未经原告本人知情同意的情况下,授权软件公司AI化使用原告声音的行为无合法权利来源。法院判决相关被告向原告赔礼道歉,并赔偿损失共计25万元。
法院指出,即使合法获得了作品授权,也并不意味着有权将其进行AI训练。这表明相关权利人、创作者对其作品等应有相应的控制权,仅凭模糊的授权条款,而不另行支付对价,不能保证平台可以进行AI训练。
04
我国已于去年开始实施的《生成式人工智能服务管理暂行办法》(下称《办法》)规定,在提供和使用生成式人工智能服务的过程中,应尊重知识产权、商业道德等,不得利用算法、数据、平台等优势实施垄断和不正当竞争行为。
《办法》还对生成式人工智能服务提供者提出了一系列规定,包括依法开展训练数据处理活动、承担网络信息内容生产者责任和个人信息处理者责任、明确服务的适用人群等。
然而,要判定生成式AI侵权存在一定难度,包括侵权对象的界定、生成内容的独创性判断、证据收集和技术分析、法律适用的不确定性等问题。
其次,生成式AI的生成内容是向特定用户提供的,本身不具有直接公开性,不会出现大规模的直接侵权现象,这与传统的网络侵权有所不同。
AI技术的不断进步,也对法律的"思想-表达二分法"造成冲击,传统上"接触+相似"的侵权判断标准不再完全适用。生成式AI可以快速学习人类作品并生成不同的表达结果,导致"思想与表达"难以清晰"二分",从而增加了侵权认定的难度。
整体而言,现有的法律规定难以完全涵盖AI的应用场景和生成形式的所有情况。为了应对这些困难,法律界需要不断探索和完善相关法律规定和侵权认定标准,综合考虑技术特点、社会影响等多方面因素,以实现对生成式AI侵权行为的合理判定和有效规制。