Controverse autour de l'affaiblissement de la loi américaine sur l'IA : Fei-Fei Li condamne, les entreprises nationales suivent de près La loi américaine sur l'intelligence artificielle a été affaiblie, suscitant la controverse. Fei-Fei Li a condamné cette décision, tandis que les entreprises nationales suivent attentivement la situation.

La nouvelle loi sur la sécurité de l'IA en Californie suscite la controverse, mais son contenu essentiel mérite l'attention. Cette loi exige que les grandes entreprises d'IA effectuent des évaluations de sécurité de leurs systèmes et signalent les risques potentiels au gouvernement de l'État. La loi met également l'accent sur la protection de la vie privée des utilisateurs, interdisant aux systèmes d'IA de collecter des informations personnelles sans autorisation. Bien qu'elle ait fait l'objet de certaines critiques, la loi vise à équilibrer l'innovation en IA et la sécurité publique, fournissant ainsi une référence pour la future réglementation de l'IA.

La loi californienne sur l'innovation en matière de sécurité des modèles d'IA de pointe a été adoptée par la commission des crédits de l'Assemblée de Californie après avoir été considérablement affaiblie. Les principaux changements apportés à la loi modifiée comprennent :

  1. Le procureur général n'est plus autorisé à poursuivre les entreprises d'IA pour avoir ignoré les problèmes de sécurité avant qu'un événement catastrophique ne se produise. La réglementation se concentre désormais sur les dommages réels.

  2. Seuls les développeurs dont le coût de calcul pour l'entraînement des modèles dépasse 100 millions de dollars seront soumis à des exigences réglementaires. Les modèles existants ne sont pas concernés. Les futurs Llama 4 et GPT-5 pourraient être réglementés.

  3. La loi exige que les fournisseurs de services cloud collectent les informations des clients pour faciliter la traçabilité par les autorités de régulation.

  4. Les entreprises réglementées doivent prendre des mesures pour éviter l'utilisation abusive des modèles, avoir la capacité de les arrêter en cas d'urgence, soumettre une déclaration de pratiques de sécurité et se soumettre à un audit indépendant annuel.

  5. Les infractions peuvent entraîner des amendes allant de 10 à 30 millions de dollars.

  6. Les opinions pour et contre la loi sont très divisées. Les partisans estiment qu'il s'agit d'une exigence minimale pour une réglementation efficace, tandis que les opposants craignent qu'elle n'entrave le développement de l'IA et l'écosystème open source.

  7. L'auteur principal de la loi a réfuté certaines critiques, affirmant qu'elle ne nuirait pas à l'innovation et à l'IA open source.

  8. La version révisée de la loi inclut des dispositions pour protéger l'ajustement fin des modèles open source.

Le contenu spécifique et l'impact de la loi restent à observer.