科学家联名反对加州AI限制法案,李飞飞领衔

加州SB-1047法案在人工智能领域引发热议。

在硅谷创新热土上,李飞飞、吴恩达等AI科学家正与监管部门就安全与创新展开拉锯战。

争议的核心是一项名为SB-1047的法案,全称《前沿人工智能模型安全创新法案》。该法案试图为高风险AI模型建立明确的安全标准,以防止滥用或灾难性后果。

法案主要内容包括:

  1. 适用于使用超过10^26次运算或成本超过1亿美元训练的AI模型。

  2. 要求模型开发者对下游使用承担法律责任。

  3. 成立"前沿模型部门"作为监管机构。

  4. 加入吹哨人保护条款。

许多科学家认为法案条款不合理,将严重阻碍创新。李飞飞撰文指出法案的三大问题:

  1. 过度惩罚开发者,扼杀创新。

  2. 束缚开源开发。

  3. 削弱公共部门和学术AI研究。

数十位科学家也联名反对该法案,认为它会:

  1. 给开源模型发布带来"寒蝉效应"。

  2. AI风险预测方法存在不科学性。

  3. 对开源模型保护不足。

  4. 影响学生就业和职业发展。

这场拉锯战反映了AI发展中安全与创新的矛盾,需要在监管和发展之间寻求平衡。

法案链接