AI时代下的互联网困境:谷歌警示 谷歌首席执行官桑达尔·皮查伊近日发出警告,称人工智能可能会对互联网造成严重威胁。他表示,AI生成的内容可能会淹没互联网,使得人们难以找到真实、可靠的信息。 皮查伊在接受CBS采访时说:"在未来5到10年内,我们可能会面临一个挑战:互联网上的大部分内容可能是人工智能生成的。"他强调,这种情况可能会导致信息的真实性和可靠性受到质疑。 这一警告引发了人们对AI技术快速发展可能带来的负面影响的担忧。随着ChatGPT等大型语言模型的出现,AI生成内容的能力已经达到了前所未有的水平。这些模型可以快速生成各种类型的文本,从新闻文章到社交媒体帖子,甚至是学术论文。 然而,AI生成的内容也存在一些问题。首先,这些内容可能缺乏原创性和深度思考。其次,AI可能会产生虚假或误导性的信息,进一步加剧网络上的虚假信息传播问题。最后,大量AI生成的内容可能会淹没人类创作的原创内容,使得优质信息更难被发现。 为了应对这些挑战,皮查伊呼吁加强对AI技术的监管和管理。他表示,需要建立一个框架来确保AI生成的内容能够被识别和标记,同时也要提高公众的媒体素养,使人们能够辨别AI生成的内容和人类创作的内容。 此外,一些专家建议,搜索引擎和社交媒体平台应该改进其算法,以更好地识别和推荐高质量、可信的内容。同时,也需要鼓励和支持人类创作者,确保互联网上仍然存在丰富多样的原创内容。 尽管AI技术带来了挑战,但它也为内容创作和信息传播带来了新的机遇。关键是要找到平衡,既利用AI的优势,又能够维护互联网的真实性和多样性。这需要技术公司、监管机构和用户共同努力,共同塑造一个健康、可持续的数字生态系统。

在虚假信息泛滥的时代,把责任推卸到人工智能身上已成为一种简单的做法。

"虚假信息炮制机"是GenAI的宿命?

研究人员发现,大多数GenAI滥用案例都是对系统的正常使用,并没有"越狱"行为,这类"常规操作"占了9成。

正如研究人员在论文后面所解释的那样,GenAI的广泛可用性、可访问性和超现实性,使得层出不穷的、较低级别的滥用形式成为可能——生成虚假信息的成本实在是太低了!

阅读完这篇论文之后,你可能会情不自禁产生这样的感受:人们并没有滥用GenAI,只不过是按照其产品设计正常使用而已。

人们使用生成式人工智能来制作大量虚假内容,是因为它本来就非常擅长完成这项任务。

很多虚假内容往往既没有明显的恶意,也没有明确违反这些工具的内容政策或服务条款,但其潜在的危害是巨大的。

这一观察结果与404 Media之前的报道不谋而合。

那些利用人工智能冒充他人、扩大不良内容的规模和传播范围,或制作未经同意的私密图片(nonconsensual intimate images,NCII)的人,大多并没有入侵或操纵他们正在使用的人工智能生成工具,他们是在允许的范围内使用这些工具。

很简单就能举出2个例子:

AI工具的"围栏"可以用一些提示巧妙避过,没有什么能阻止用户使用ElevenLabs的人工智能语音克隆工具高度逼真地模仿出同事或明星的声音。

Civitai用户可以创建人工智能生成的名人图像,虽然该平台有禁止NCII的政策,但同样没有什么能阻止用户在自己的机器上使用GitHub上开源的工具(如 Automatic1111 或 ComfyUI)来生成 NCII。

将这些AI生成的内容发到Facebook可能违反了平台的政策,但生成这个行为本身并没有违反他们所使用的人工智能图片生成器的政策。

媒体:GenAI的滥用只是冰山一角

因为谷歌的研究素材大量来自于媒体报道,这就带来了一个问题:这是否会让研究结论带有媒体的偏见?毕竟作为探照灯的媒体,在选题和报道上有自己的偏向。

那些耸人听闻的事件更容易被报道,这可能会导致数据集偏向特定类型的滥用。

404 Media对此做出了回应:虽然媒体确实只能报道它所能证实的事件,但是可以确定的一点是,还有大量的我们尚未意识到的生成式人工智能的滥用没有被报道。

即便是上文提到的用AI生成名人色情图片的情况,被媒体大量揭露,但仍然存在报道不足的问题。

首先是因为这一话题仍是禁忌,有很多出版物不愿报道。

其次是因为媒体只能捕捉到个例,无法始终关注事件的整体和后续,404 Media的一名编辑写道:

在我联系Patreon官方作出回应(之后发言人关闭了他的账户)之前,我写过一篇报道,关于一个用户在Patreon上通过 NCII 盈利,他制作了53190张未经同意的名人图片。那篇报道中还提到了另外两名NCII制作者,之后我又发现了其他人。 泰勒·斯威夫特在推特上疯传的人工智能生成的裸体图片就是在Telegram和4chan社区首次分享的,在一月份那篇报道爆出前后,这些社区都很活跃,从那以后,他们每天都在发布NCII。 我和其他记者不会对每一张图片和创作者都进行报道,因为如果这样做,我们就没有时间做其他事情了。

当虚假信息泛滥,甩锅给AI变得很容易

让我们做一个推演,当互联网上充斥着人工智能生成的内容,会发生什么?

最直接的后果是,互联网上的混乱状况会对人们辨别真假的能力带来巨大的考验,我们将陷入一种经常性的怀疑,"这是真的吗"?

在互联网刚刚出现的时代,流行的一句话是,"你不知道网线那头是人是狗",现在这种趋势愈演愈烈了,人们被虚假的人工智能生成内容所淹没,越来越疲于应对。

如果不加以解决,人工智能生成的内容对公开数据的污染还可能会阻碍信息检索,扭曲对社会政治现实或科学共识的集体理解。

而且,这可能会成为一些知名人物的"挡箭牌",在某些情况下,他们能够将对自己不利的证据解释为人工智能生成的,轻巧地将举证的责任转移出去。

对于生成式AI所带来的虚假内容的泛滥,谷歌起到了推波助澜的作用,甚至可以说是"始作俑者"也不为过,多年前射出的子弹,今日终于击中了自己的眉心。

参考资料:

https://arxiv.org/abs/2406.13843

https://futurism.com/the-byte/google-researchers-paper-ai-internet