Controversia por el debilitamiento de la ley de IA en EE. UU.: Fei-Fei Li condena, empresas nacionales observan de cerca

La nueva ley de seguridad de IA en California genera controversia, pero su contenido central merece atención. La ley requiere que las grandes empresas de IA realicen evaluaciones de seguridad de sus sistemas e informen al gobierno estatal sobre los riesgos potenciales. La legislación también enfatiza la protección de la privacidad del usuario y prohíbe que los sistemas de IA recopilen información personal sin autorización. Aunque ha recibido algunas críticas, la ley tiene como objetivo equilibrar la innovación en IA con la seguridad pública, proporcionando una referencia para la futura regulación de la IA.

La "Ley de Innovación en Seguridad de Modelos de IA de Vanguardia" de California fue aprobada por el Comité de Asignaciones de la Asamblea de California después de ser significativamente debilitada. Los principales cambios en la ley modificada incluyen:

  1. Ya no permite al Fiscal General demandar a las empresas de IA por ignorar problemas de seguridad antes de que ocurran eventos catastróficos; el enfoque regulatorio se centra ahora en daños reales.

  2. Solo los desarrolladores con costos de entrenamiento de modelos superiores a $100 millones enfrentarán requisitos regulatorios; los modelos existentes están excluidos. Futuros modelos como Llama 4 y GPT-5 podrían estar sujetos a regulación.

  3. La ley requiere que los proveedores de servicios en la nube recopilen información del cliente para facilitar el rastreo por parte de los reguladores.

  4. Las empresas bajo regulación deben tomar medidas para evitar el mal uso del modelo, tener la capacidad de apagar el modelo en emergencias, presentar declaraciones de prácticas de seguridad y someterse a auditorías independientes anuales.

  5. Las infracciones pueden resultar en multas de entre $10 millones y $30 millones.

  6. Hay opiniones divididas sobre el apoyo y la oposición a la ley. Los partidarios la consideran un requisito mínimo para una regulación efectiva, mientras que los opositores temen que obstaculice el desarrollo de la IA y el ecosistema de código abierto.

  7. El autor principal de la ley refutó algunas críticas, afirmando que no dañará la innovación ni la IA de código abierto.

  8. La ley revisada incluye cláusulas de protección para el ajuste fino de modelos de código abierto.

El contenido específico y el impacto de la ley aún están por verse.