在硅谷创新热土上,李飞飞、吴恩达等AI科学家正与监管部门就安全与创新展开拉锯战。
争议的核心是一项名为SB-1047的法案,全称《前沿人工智能模型安全创新法案》。该法案试图为高风险AI模型建立明确的安全标准,以防止滥用或灾难性后果。
法案主要内容包括:
-
适用于使用超过10^26次运算或成本超过1亿美元训练的AI模型。
-
要求模型开发者对下游使用承担法律责任。
-
成立"前沿模型部门"作为监管机构。
-
加入吹哨人保护条款。
许多科学家认为法案条款不合理,将严重阻碍创新。李飞飞撰文指出法案的三大问题:
-
过度惩罚开发者,扼杀创新。
-
束缚开源开发。
-
削弱公共部门和学术AI研究。
数十位科学家也联名反对该法案,认为它会:
-
给开源模型发布带来"寒蝉效应"。
-
AI风险预测方法存在不科学性。
-
对开源模型保护不足。
-
影响学生就业和职业发展。
这场拉锯战反映了AI发展中安全与创新的矛盾,需要在监管和发展之间寻求平衡。