科学者たちがカリフォルニア州のAI規制法案に反対する声明に署名、李飛飛が先頭に立つ

カリフォルニア州のSB-1047法案が人工知能分野で議論を巻き起こしています。

シリコンバレーのイノベーションの地で、李飞飞や吴恩达などのAI科学者たちが、安全性とイノベーションをめぐって規制当局との綱引きを展開しています。

論争の中心は、SB-1047という法案で、正式名称は「フロンティアAIモデル安全イノベーション法案」です。この法案は、高リスクAIモデルに明確な安全基準を設けることで、悪用や破滅的な結果を防ぐことを目指しています。

法案の主な内容は以下の通りです:

  1. 10^26回以上の演算または1億ドル以上のコストで訓練されたAIモデルに適用。

  2. モデル開発者に下流での使用に対する法的責任を要求。

  3. 規制機関として「フロンティアモデル部門」を設立。

  4. 内部告発者保護条項を追加。

多くの科学者は、法案の条項が不合理であり、イノベーションを深刻に妨げると考えています。李飞飞は法案の3つの問題点を指摘しています:

  1. 開発者に過度の罰則を課し、イノベーションを抑制する。

  2. オープンソース開発を制限する。

  3. 公共部門と学術的AIの研究を弱体化させる。

数十人の科学者も連名でこの法案に反対し、以下のような懸念を表明しています:

  1. オープンソースモデルの公開に「萎縮効果」をもたらす。

  2. AIリスク予測方法の非科学性。

  3. オープンソースモデルの保護が不十分。

  4. 学生の就職やキャリア開発に影響を与える。

この綱引きは、AI開発における安全性とイノベーションの矛盾を反映しており、規制と発展のバランスを見出す必要があります。

法案リンク