美國AI法案遭削弱引爭議:李飛飛譴責,國內企業密切關注

加州新推出的人工智慧安全法案引發爭議,但其核心內容值得關注。該法案要求大型人工智慧公司對其系統進行安全評估,並向州政府報告潛在風險。法案還強調保護用戶隱私,禁止人工智慧系統未經授權收集個人資訊。儘管遭到部分批評,但法案旨在平衡人工智慧創新與公眾安全,為未來人工智慧監管提供參考。

加州《前沿AI模型安全創新法案》在大幅削弱後通過加州眾議院撥款委員會審核。修正後的法案主要變化包括:

  1. 不再允許總檢察長在災難性事件發生前起訴AI企業忽視安全問題的行為,監管重點轉為實際危害。

  2. 只有訓練模型算力成本超1億美元的開發商才會面臨監管要求,現有模型均不在監管範圍內。未來Llama 4和GPT-5可能會被納入監管。

  3. 法案要求雲服務提供商收集客戶資訊,便於監管部門溯源。

  4. 監管範圍內的企業需採取措施避免模型濫用,擁有緊急關閉模型的能力,提交安全實踐聲明,每年接受獨立審計。

  5. 違法行為可能面臨1000萬-3000萬美元不等的罰款。

  6. 對法案的支持和反對意見分歧較大。支持者認為是有效監管的最低要求,反對者擔心會阻礙AI發展和開源生態。

  7. 法案主筆駁斥了部分批評,稱不會對創新和開源AI產生危害。

  8. 修訂後的法案加入了對開源模型微調的保護條款。

法案的具體內容和影響仍有待進一步觀察。