No Vale do Silício, terra da inovação, cientistas de IA como Li Fei-Fei e Andrew Ng estão travando uma batalha com os reguladores sobre segurança e inovação.
O cerne da controvérsia é um projeto de lei chamado SB-1047, intitulado "Lei de Segurança e Inovação em Modelos de IA de Fronteira".
O projeto de lei visa estabelecer padrões de segurança claros para modelos de IA de alto risco, a fim de prevenir abusos ou consequências catastróficas.
Os principais pontos do projeto de lei incluem:
-
Aplicável a modelos de IA treinados com mais de 10^26 operações ou custo superior a $100 milhões.
-
Exige que os desenvolvedores de modelos assumam responsabilidade legal pelo uso downstream.
-
Estabelece um "Departamento de Modelos de Fronteira" como órgão regulador.
-
Inclui cláusulas de proteção a denunciantes.
Muitos cientistas consideram as disposições do projeto de lei irracionais e que inibirão severamente a inovação. Li Fei-Fei apontou três problemas principais:
-
Punição excessiva aos desenvolvedores, sufocando a inovação.
-
Restrição ao desenvolvimento de código aberto.
-
Enfraquecimento da pesquisa em IA no setor público e acadêmico.
Dezenas de cientistas também se opuseram conjuntamente ao projeto, argumentando que:
-
Criará um "efeito inibidor" na publicação de modelos de código aberto.
-
Os métodos de previsão de riscos de IA são não científicos.
-
Proteção insuficiente para modelos de código aberto.
-
Impactará o emprego e desenvolvimento de carreira dos estudantes.
Esta batalha reflete o conflito entre segurança e inovação no desenvolvimento da IA, exigindo um equilíbrio entre regulação e desenvolvimento.