科學家聯名反對加州AI限制法案,李飛飛領銜

加州SB-1047法案在人工智能領域引發熱議。

在矽谷創新熱土上,李飛飛、吳恩達等AI科學家正與監管部門就安全與創新展開拉鋸戰。

爭議的核心是一項名為SB-1047的法案,全稱《前沿人工智能模型安全創新法案》。該法案試圖為高風險AI模型建立明確的安全標準,以防止濫用或災難性後果。

法案主要內容包括:

  1. 適用於使用超過10^26次運算或成本超過1億美元訓練的AI模型。

  2. 要求模型開發者對下游使用承擔法律責任。

  3. 成立"前沿模型部門"作為監管機構。

  4. 加入吹哨人保護條款。

許多科學家認為法案條款不合理,將嚴重阻礙創新。李飛飛撰文指出法案的三大問題:

  1. 過度懲罰開發者,扼殺創新。

  2. 束縛開源開發。

  3. 削弱公共部門和學術AI研究。

數十位科學家也聯名反對該法案,認為它會:

  1. 給開源模型發布帶來"寒蟬效應"。

  2. AI風險預測方法存在不科學性。

  3. 對開源模型保護不足。

  4. 影響學生就業和職業發展。

這場拉鋸戰反映了AI發展中安全與創新的矛盾,需要在監管和發展之間尋求平衡。

法案連結