アメリカのAI法案が弱体化され論争を呼ぶ:李飛飛が非難、国内企業が注視

カリフォルニア州の新しいAI安全法案が論争を引き起こしていますが、その核心的な内容は注目に値します。この法案は、大手AI企業にシステムの安全性評価を実施し、潜在的なリスクを州政府に報告することを求めています。また、法案はユーザーのプライバシー保護を強調し、AIシステムが無断で個人情報を収集することを禁止しています。一部の批判を受けていますが、この法案はAIイノベーションと公共の安全のバランスを取ることを目的としており、将来のAI規制の参考になるでしょう。

カリフォルニア州の「先端AIモデル安全革新法案」が大幅に弱められた後、カリフォルニア州下院歳出委員会の審査を通過しました。修正後の法案の主な変更点は以下の通りです:

  1. 総検事が災害的事象が発生する前にAI企業の安全問題無視を訴追することを認めなくなり、規制の焦点は実際の危害に移りました。

  2. モデルのトレーニングに1億ドル以上の計算コストがかかる開発者のみが規制要件に直面し、既存のモデルはすべて規制対象外となります。将来的にLlama 4やGPT-5が規制対象となる可能性があります。

  3. 法案はクラウドサービスプロバイダーに顧客情報の収集を要求し、規制当局の追跡を容易にします。

  4. 規制対象の企業はモデルの悪用を避けるための措置を講じ、緊急時にモデルをシャットダウンする能力を持ち、安全実践声明を提出し、毎年独立監査を受ける必要があります。

  5. 違法行為には1000万から3000万ドルの罰金が科される可能性があります。

  6. 法案に対する支持と反対の意見は大きく分かれています。支持者は効果的な規制の最低要件だと考え、反対者はAIの発展とオープンソースエコシステムを妨げる可能性を懸念しています。

  7. 法案の起草者は一部の批判を退け、イノベーションやオープンソースAIに害を与えないと主張しています。

  8. 改訂後の法案にはオープンソースモデルの微調整を保護する条項が追加されました。

法案の具体的な内容と影響については、さらなる観察が必要です。