"虛假資訊炮製機"是GenAI的宿命?
研究人員發現,大多數GenAI濫用案例都是對系統的正常使用,並沒有"越獄"行為,這類"常規操作"佔了9成。
正如研究人員在論文後面所解釋的那樣,GenAI的廣泛可用性、可訪問性和超現實性,使得層出不窮的、較低級別的濫用形式成為可能——生成虛假資訊的成本實在是太低了!
閱讀完這篇論文之後,你可能會情不自禁產生這樣的感受:人們並沒有濫用GenAI,只不過是按照其產品設計正常使用而已。
人們使用生成式人工智慧來製作大量虛假內容,是因為它本來就非常擅長完成這項任務。
很多虛假內容往往既沒有明顯的惡意,也沒有明確違反這些工具的內容政策或服務條款,但其潛在的危害是巨大的。
這一觀察結果與404 Media之前的報導不謀而合。
那些利用人工智慧冒充他人、擴大不良內容的規模和傳播範圍,或製作未經同意的私密圖片(nonconsensual intimate images,NCII)的人,大多並沒有入侵或操縱他們正在使用的人工智慧生成工具,他們是在允許的範圍內使用這些工具。
很簡單就能舉出2個例子:
AI工具的"圍欄"可以用一些提示巧妙避過,沒有什麼能阻止用戶使用ElevenLabs的人工智慧語音克隆工具高度逼真地模仿出同事或明星的聲音。
Civitai用戶可以創建人工智慧生成的名人圖像,雖然該平台有禁止NCII的政策,但同樣沒有什麼能阻止用戶在自己的機器上使用GitHub上開源的工具(如 Automatic1111 或 ComfyUI)來生成 NCII。
將這些AI生成的內容發到Facebook可能違反了平台的政策,但生成這個行為本身並沒有違反他們所使用的人工智慧圖片生成器的政策。
媒體:GenAI的濫用只是冰山一角
因為谷歌的研究素材大量來自於媒體報導,這就帶來了一個問題:這是否會讓研究結論帶有媒體的偏見?畢竟作為探照燈的媒體,在選題和報導上有自己的偏向。
那些聳人聽聞的事件更容易被報導,這可能會導致數據集偏向特定類型的濫用。
404 Media對此做出了回應:雖然媒體確實只能報導它所能證實的事件,但是可以確定的一點是,還有大量的我們尚未意識到的生成式人工智慧的濫用沒有被報導。
即便是上文提到的用AI生成名人色情圖片的情況,被媒體大量揭露,但仍然存在報導不足的問題。
首先是因為這一話題仍是禁忌,有很多出版物不願報導。
其次是因為媒體只能捕捉到個例,無法始終關注事件的整體和後續,404 Media的一名編輯寫道:
在我聯繫Patreon官方作出回應(之後發言人關閉了他的帳戶)之前,我寫過一篇報導,關於一個用戶在Patreon上通過 NCII 盈利,他製作了53190張未經同意的名人圖片。那篇報導中還提到了另外兩名NCII製作者,之後我又發現了其他人。 泰勒·斯威夫特在推特上瘋傳的人工智慧生成的裸體圖片就是在Telegram和4chan社區首次分享的,在一月份那篇報導爆出前後,這些社區都很活躍,從那以後,他們每天都在發布NCII。 我和其他記者不會對每一張圖片和創作者都進行報導,因為如果這樣做,我們就沒有時間做其他事情了。
當虛假資訊泛濫,甩鍋給AI變得很容易
讓我們做一個推演,當互聯網上充斥著人工智慧生成的內容,會發生什麼?
最直接的後果是,互聯網上的混亂狀況會對人們辨別真假的能力帶來巨大的考驗,我們將陷入一種經常性的懷疑,"這是真的嗎"?
在互聯網剛剛出現的時代,流行的一句話是,"你不知道網線那頭是人是狗",現在這種趨勢愈演愈烈了,人們被虛假的人工智慧生成內容所淹沒,越來越疲於應對。
如果不加以解決,人工智慧生成的內容對公開數據的污染還可能會阻礙資訊檢索,扭曲對社會政治現實或科學共識的集體理解。
而且,這可能會成為一些知名人物的"擋箭牌",在某些情況下,他們能夠將對自己不利的證據解釋為人工智慧生成的,輕巧地將舉證的責任轉移出去。
對於生成式AI所帶來的虛假內容的泛濫,谷歌起到了推波助瀾的作用,甚至可以說是"始作俑者"也不為過,多年前射出的子彈,今日終於擊中了自己的眉心。
參考資料:
https://arxiv.org/abs/2406.13843
https://futurism.com/the-byte/google-researchers-paper-ai-internet