La loi californienne sur l'innovation en matière de sécurité des modèles d'IA de pointe a été adoptée par la commission des crédits de l'Assemblée de Californie après avoir été considérablement affaiblie. Les principaux changements apportés à la loi modifiée comprennent :
-
Le procureur général n'est plus autorisé à poursuivre les entreprises d'IA pour avoir ignoré les problèmes de sécurité avant qu'un événement catastrophique ne se produise. La réglementation se concentre désormais sur les dommages réels.
-
Seuls les développeurs dont le coût de calcul pour l'entraînement des modèles dépasse 100 millions de dollars seront soumis à des exigences réglementaires. Les modèles existants ne sont pas concernés. Les futurs Llama 4 et GPT-5 pourraient être réglementés.
-
La loi exige que les fournisseurs de services cloud collectent les informations des clients pour faciliter la traçabilité par les autorités de régulation.
-
Les entreprises réglementées doivent prendre des mesures pour éviter l'utilisation abusive des modèles, avoir la capacité de les arrêter en cas d'urgence, soumettre une déclaration de pratiques de sécurité et se soumettre à un audit indépendant annuel.
-
Les infractions peuvent entraîner des amendes allant de 10 à 30 millions de dollars.
-
Les opinions pour et contre la loi sont très divisées. Les partisans estiment qu'il s'agit d'une exigence minimale pour une réglementation efficace, tandis que les opposants craignent qu'elle n'entrave le développement de l'IA et l'écosystème open source.
-
L'auteur principal de la loi a réfuté certaines critiques, affirmant qu'elle ne nuirait pas à l'innovation et à l'IA open source.
-
La version révisée de la loi inclut des dispositions pour protéger l'ajustement fin des modèles open source.
Le contenu spécifique et l'impact de la loi restent à observer.