01
作者所指的AI協議,是與平台簽約時的一項合同條款,具體涉及以下內容:
甲方可將簽約作品的全部部分內容及相關信息(包括作品名稱、簡介、大綱、章節、人物、作者個人信息、封面圖等)、數據、語料、文本、素材等,用於標註、合成數據/數據庫建設、Al人工智能研發、機器學習、模型訓練、深度合成、算法研發等目前已知或未來開發的新技術研發/應用領域,包括但不限於:
(1)用於智能對話、智能文本/圖像/視聽/語音等作品/成品的編輯、生成、轉換、深度合成、虛擬現實技術等的研發和應用。
(2)用於任何技術下的Al人工智能模型訓練,或用於生成提供給模型訓練的合成數據/數據庫。
(3)其他任何新技術研發或應用場景。
注:甲方為番茄,乙方為作者
作為平台方的番茄小說很快給出了解決方案,刪除了原協議中Al模型訓練場景條款,給出了補充協議。
番茄小說作者羊羊也注意到了最新的補充條款,她選擇繼續簽約。在她看來,番茄小說比較適合新作者。羊羊是在兩個月前入駐番茄小說的,最近剛完結一篇20餘萬字的小說。
但並非所有作者都給予認可,其中一些還在社交媒體發文,質疑平台補充協議的標點符號、分段是在"挖坑",雙方的信任關係仍有待修復。
作者平平對於內容被用於AI訓練感到不滿,認為AI發展是趨勢,作為生產工具可以協助工作,解放勞動力,"但不應該是取代勞動力"。她希望番茄小說能發布公告"承諾未來不會使用AI一鍵成文"等功能,之後再簽補充協議。
上述兩位作者都明確表示,未來會選擇離開番茄小說。
但眼下還有另一重麻煩,不少作者擔心會被平台方起訴洩露合同內容。一旦敗訴,賠償金也會是一筆不小的費用。
02
伴隨著人工智能的高速發展,用戶或創作者與平台間圍繞AI侵權的糾紛時有發生。即便是掀起AI大潮的OpenAI也多次被美國媒體狀告,在未經允許的前提下,後者的新聞報道被用於AI訓練。為此,OpenAI開始與媒體集團簽署合作協議。
美國知名女演員斯嘉麗·約翰遜也曾指責OpenAI盜用她的聲音。該公司所推出的產品ChatGPT-4o中內置的語音之一"Sky",與斯嘉麗的聲音極為相似。儘管OpenAI予以否認,但最終暫停使用了"Sky"的聲音。
剛剛發布最強大模型的Meta,也會要求社交媒體Instagram用戶同意上傳的內容被用於AI訓練,否則無法使用該平台。
而在國內,界面新聞注意到,部分創業公司並不避諱通過採集公開發表的新聞報道或文章,用AI"洗稿"生產內容並盈利,也有一些公司的AI繪圖被畫師質疑抄襲。
對於上述情況,上海大邦律師事務所高級合夥人游雲庭表示,在未取得作者授權的情況下,將作品用於AI訓練,涉嫌侵犯著作權法上規定的著作權的其他權利。但到目前為止,訓練是否構成侵權,尚沒有相應的法院判決可以來支持。正因為有一定的爭議性,即使被法院認定為侵權,也不構成犯罪。
游雲庭補充稱,如果平台將作品用於AI訓練,需要跟作者單獨協商達成新協議。如果單方面改變協議內容,或在更新時強制簽署協議,就違反了現有合同,法院不會認可新合同的效力。
其次,如果平台聲稱AI訓練只是為了提升服務質量,而非商業盈利,這在法律上是站不住腳的,因為平台提升商業服務質量也是為了盈利,法院不會認可企業的抗辯。
03
平台普遍在進行的"AI訓練"更進一步引發了創作者對私有內容洩露的擔憂。近日,有網友稱,WPS疑似把作者未公開內容"餵"給抖音豆包AI,因在該AI上問出了相應內容。
對此,字節跳動稱相關傳言完全不實,豆包上部分書目信息來源於公開信息;豆包與WPS在AI訓練層面並未開展任何形式的合作,也沒有使用任何用戶未公開的私人數據進行訓練。而WPS官方也回應稱,相關問題完全失實。
不過,今年4月北京互聯網法院一審開庭宣判的全國首例AI生成聲音人格權侵權案,可以為內容創作者們維權提供一種借鑒。在該案中,配音師殷某發現,某軟件公司將其配音製作的作品AI化處理後出售給相關平台,該作品在多個知名App廣泛流傳。
法院經審理認定,被告文化傳媒公司對錄音製品享有著作權等權利,但不包括授權他人對原告聲音進行AI化使用的權利,其在未經原告本人知情同意的情況下,授權軟件公司AI化使用原告聲音的行為無合法權利來源。法院判決相關被告向原告賠禮道歉,並賠償損失共計25萬元。
法院指出,即使合法獲得了作品授權,也並不意味著有權將其進行AI訓練。這表明相關權利人、創作者對其作品等應有相應的控制權,僅憑模糊的授權條款,而不另行支付對價,不能保證平台可以進行AI訓練。
04
我國已於去年開始實施的《生成式人工智能服務管理暫行辦法》(下稱《辦法》)規定,在提供和使用生成式人工智能服務的過程中,應尊重知識產權、商業道德等,不得利用算法、數據、平台等優勢實施壟斷和不正當競爭行為。
《辦法》還對生成式人工智能服務提供者提出了一系列規定,包括依法開展訓練數據處理活動、承擔網絡信息內容生產者責任和個人信息處理者責任、明確服務的適用人群等。
然而,要判定生成式AI侵權存在一定難度,包括侵權對象的界定、生成內容的獨創性判斷、證據收集和技術分析、法律適用的不確定性等問題。
其次,生成式AI的生成內容是向特定用戶提供的,本身不具有直接公開性,不會出現大規模的直接侵權現象,這與傳統的網絡侵權有所不同。
AI技術的不斷進步,也對法律的"思想-表達二分法"造成衝擊,傳統上"接觸+相似"的侵權判斷標準不再完全適用。生成式AI可以快速學習人類作品並生成不同的表達結果,導致"思想與表達"難以清晰"二分",從而增加了侵權認定的難度。
整體而言,現有的法律規定難以完全涵蓋AI的應用場景和生成形式的所有情況。為了應對這些困難,法律界需要不斷探索和完善相關法律規定和侵權認定標準,綜合考慮技術特點、社會影響等多方面因素,以實現對生成式AI侵權行為的合理判定和有效規制。