O projeto de lei "Frontier AI Model Safety Innovation Act" da Califórnia foi aprovado pelo Comitê de Dotações da Assembleia da Califórnia após sofrer significativas reduções. As principais mudanças na versão revisada do projeto incluem:
-
Não permite mais que o Procurador-Geral processe empresas de IA por negligenciar questões de segurança antes da ocorrência de eventos catastróficos, focando a regulamentação em danos reais.
-
Apenas desenvolvedores com custos de treinamento de modelos superiores a $100 milhões estarão sujeitos a requisitos regulatórios, excluindo modelos existentes. Futuros modelos como Llama 4 e GPT-5 podem ser incluídos.
-
O projeto exige que provedores de serviços em nuvem coletem informações dos clientes para facilitar a rastreabilidade pelas autoridades reguladoras.
-
Empresas sob regulamentação devem tomar medidas para evitar o uso indevido de modelos, ter capacidade de desligamento de emergência, submeter declarações de práticas de segurança e passar por auditorias independentes anuais.
-
Violações podem resultar em multas entre $10 milhões e $30 milhões.
-
Há opiniões divergentes sobre o apoio e oposição ao projeto. Apoiadores o consideram um requisito mínimo para regulamentação eficaz, enquanto opositores temem que possa impedir o desenvolvimento de IA e o ecossistema de código aberto.
-
O autor principal do projeto refutou algumas críticas, afirmando que não prejudicará a inovação e a IA de código aberto.
-
A versão revisada inclui cláusulas de proteção para o ajuste fino de modelos de código aberto.
O conteúdo específico e o impacto do projeto de lei ainda requerem observação adicional.