La "Ley de Innovación en Seguridad de Modelos de IA de Vanguardia" de California fue aprobada por el Comité de Asignaciones de la Asamblea de California después de ser significativamente debilitada. Los principales cambios en la ley modificada incluyen:
-
Ya no permite al Fiscal General demandar a las empresas de IA por ignorar problemas de seguridad antes de que ocurran eventos catastróficos; el enfoque regulatorio se centra ahora en daños reales.
-
Solo los desarrolladores con costos de entrenamiento de modelos superiores a $100 millones enfrentarán requisitos regulatorios; los modelos existentes están excluidos. Futuros modelos como Llama 4 y GPT-5 podrían estar sujetos a regulación.
-
La ley requiere que los proveedores de servicios en la nube recopilen información del cliente para facilitar el rastreo por parte de los reguladores.
-
Las empresas bajo regulación deben tomar medidas para evitar el mal uso del modelo, tener la capacidad de apagar el modelo en emergencias, presentar declaraciones de prácticas de seguridad y someterse a auditorías independientes anuales.
-
Las infracciones pueden resultar en multas de entre $10 millones y $30 millones.
-
Hay opiniones divididas sobre el apoyo y la oposición a la ley. Los partidarios la consideran un requisito mínimo para una regulación efectiva, mientras que los opositores temen que obstaculice el desarrollo de la IA y el ecosistema de código abierto.
-
El autor principal de la ley refutó algunas críticas, afirmando que no dañará la innovación ni la IA de código abierto.
-
La ley revisada incluye cláusulas de protección para el ajuste fino de modelos de código abierto.
El contenido específico y el impacto de la ley aún están por verse.