在矽谷創新熱土上,李飛飛、吳恩達等AI科學家正與監管部門就安全與創新展開拉鋸戰。
爭議的核心是一項名為SB-1047的法案,全稱《前沿人工智能模型安全創新法案》。該法案試圖為高風險AI模型建立明確的安全標準,以防止濫用或災難性後果。
法案主要內容包括:
-
適用於使用超過10^26次運算或成本超過1億美元訓練的AI模型。
-
要求模型開發者對下游使用承擔法律責任。
-
成立"前沿模型部門"作為監管機構。
-
加入吹哨人保護條款。
許多科學家認為法案條款不合理,將嚴重阻礙創新。李飛飛撰文指出法案的三大問題:
-
過度懲罰開發者,扼殺創新。
-
束縛開源開發。
-
削弱公共部門和學術AI研究。
數十位科學家也聯名反對該法案,認為它會:
-
給開源模型發布帶來"寒蟬效應"。
-
AI風險預測方法存在不科學性。
-
對開源模型保護不足。
-
影響學生就業和職業發展。
這場拉鋸戰反映了AI發展中安全與創新的矛盾,需要在監管和發展之間尋求平衡。