En el terreno fértil de innovación de Silicon Valley, científicos de IA como Fei-Fei Li y Andrew Ng están librando una batalla con los reguladores sobre seguridad e innovación.
El centro de la controversia es un proyecto de ley llamado SB-1047, titulado "Ley de Seguridad e Innovación de Modelos de Inteligencia Artificial de Frontera". Este proyecto busca establecer estándares de seguridad claros para modelos de IA de alto riesgo, para prevenir el mal uso o consecuencias catastróficas.
Los principales puntos del proyecto incluyen:
-
Aplica a modelos de IA entrenados con más de 10^26 operaciones o un costo superior a 100 millones de dólares.
-
Exige responsabilidad legal a los desarrolladores por el uso posterior de los modelos.
-
Establece un "Departamento de Modelos de Frontera" como organismo regulador.
-
Incluye cláusulas de protección para denunciantes.
Muchos científicos consideran que las disposiciones del proyecto son irrazonables y obstaculizarán gravemente la innovación. Fei-Fei Li señala tres problemas principales:
-
Castiga excesivamente a los desarrolladores, sofocando la innovación.
-
Restringe el desarrollo de código abierto.
-
Debilita la investigación en IA del sector público y académico.
Decenas de científicos también se oponen conjuntamente al proyecto, argumentando que:
-
Creará un "efecto paralizador" en la publicación de modelos de código abierto.
-
Los métodos de predicción de riesgos de IA son poco científicos.
-
No protege adecuadamente los modelos de código abierto.
-
Afectará el empleo y desarrollo profesional de los estudiantes.
Esta batalla refleja la contradicción entre seguridad e innovación en el desarrollo de la IA, requiriendo un equilibrio entre regulación y desarrollo.