Cientistas se unem contra projeto de lei de restrição de IA na Califórnia, liderados por Fei-Fei Li

O projeto de lei SB-1047 da Califórnia está gerando debate no campo da inteligência artificial.

No Vale do Silício, terra da inovação, cientistas de IA como Li Fei-Fei e Andrew Ng estão travando uma batalha com os reguladores sobre segurança e inovação.

O cerne da controvérsia é um projeto de lei chamado SB-1047, intitulado "Lei de Segurança e Inovação em Modelos de IA de Fronteira".

O projeto de lei visa estabelecer padrões de segurança claros para modelos de IA de alto risco, a fim de prevenir abusos ou consequências catastróficas.

Os principais pontos do projeto de lei incluem:

  1. Aplicável a modelos de IA treinados com mais de 10^26 operações ou custo superior a $100 milhões.

  2. Exige que os desenvolvedores de modelos assumam responsabilidade legal pelo uso downstream.

  3. Estabelece um "Departamento de Modelos de Fronteira" como órgão regulador.

  4. Inclui cláusulas de proteção a denunciantes.

Muitos cientistas consideram as disposições do projeto de lei irracionais e que inibirão severamente a inovação. Li Fei-Fei apontou três problemas principais:

  1. Punição excessiva aos desenvolvedores, sufocando a inovação.

  2. Restrição ao desenvolvimento de código aberto.

  3. Enfraquecimento da pesquisa em IA no setor público e acadêmico.

Dezenas de cientistas também se opuseram conjuntamente ao projeto, argumentando que:

  1. Criará um "efeito inibidor" na publicação de modelos de código aberto.

  2. Os métodos de previsão de riscos de IA são não científicos.

  3. Proteção insuficiente para modelos de código aberto.

  4. Impactará o emprego e desenvolvimento de carreira dos estudantes.

Esta batalha reflete o conflito entre segurança e inovação no desenvolvimento da IA, exigindo um equilíbrio entre regulação e desenvolvimento.

Link do projeto de lei