Científicos se unen en oposición a la ley de restricción de IA en California, liderados por Fei-Fei Li

El proyecto de ley SB-1047 de California ha generado un intenso debate en el campo de la inteligencia artificial.

En el terreno fértil de innovación de Silicon Valley, científicos de IA como Fei-Fei Li y Andrew Ng están librando una batalla con los reguladores sobre seguridad e innovación.

El centro de la controversia es un proyecto de ley llamado SB-1047, titulado "Ley de Seguridad e Innovación de Modelos de Inteligencia Artificial de Frontera". Este proyecto busca establecer estándares de seguridad claros para modelos de IA de alto riesgo, para prevenir el mal uso o consecuencias catastróficas.

Los principales puntos del proyecto incluyen:

  1. Aplica a modelos de IA entrenados con más de 10^26 operaciones o un costo superior a 100 millones de dólares.

  2. Exige responsabilidad legal a los desarrolladores por el uso posterior de los modelos.

  3. Establece un "Departamento de Modelos de Frontera" como organismo regulador.

  4. Incluye cláusulas de protección para denunciantes.

Muchos científicos consideran que las disposiciones del proyecto son irrazonables y obstaculizarán gravemente la innovación. Fei-Fei Li señala tres problemas principales:

  1. Castiga excesivamente a los desarrolladores, sofocando la innovación.

  2. Restringe el desarrollo de código abierto.

  3. Debilita la investigación en IA del sector público y académico.

Decenas de científicos también se oponen conjuntamente al proyecto, argumentando que:

  1. Creará un "efecto paralizador" en la publicación de modelos de código abierto.

  2. Los métodos de predicción de riesgos de IA son poco científicos.

  3. No protege adecuadamente los modelos de código abierto.

  4. Afectará el empleo y desarrollo profesional de los estudiantes.

Esta batalla refleja la contradicción entre seguridad e innovación en el desarrollo de la IA, requiriendo un equilibrio entre regulación y desarrollo.

Enlace al proyecto de ley