シリコンバレーのイノベーションの地で、李飞飞や吴恩达などのAI科学者たちが、安全性とイノベーションをめぐって規制当局との綱引きを展開しています。
論争の中心は、SB-1047という法案で、正式名称は「フロンティアAIモデル安全イノベーション法案」です。この法案は、高リスクAIモデルに明確な安全基準を設けることで、悪用や破滅的な結果を防ぐことを目指しています。
法案の主な内容は以下の通りです:
-
10^26回以上の演算または1億ドル以上のコストで訓練されたAIモデルに適用。
-
モデル開発者に下流での使用に対する法的責任を要求。
-
規制機関として「フロンティアモデル部門」を設立。
-
内部告発者保護条項を追加。
多くの科学者は、法案の条項が不合理であり、イノベーションを深刻に妨げると考えています。李飞飞は法案の3つの問題点を指摘しています:
-
開発者に過度の罰則を課し、イノベーションを抑制する。
-
オープンソース開発を制限する。
-
公共部門と学術的AIの研究を弱体化させる。
数十人の科学者も連名でこの法案に反対し、以下のような懸念を表明しています:
-
オープンソースモデルの公開に「萎縮効果」をもたらす。
-
AIリスク予測方法の非科学性。
-
オープンソースモデルの保護が不十分。
-
学生の就職やキャリア開発に影響を与える。
この綱引きは、AI開発における安全性とイノベーションの矛盾を反映しており、規制と発展のバランスを見出す必要があります。