Dans la Silicon Valley, terre d'innovation, des scientifiques de l'IA comme Fei-Fei Li et Andrew Ng sont engagés dans un bras de fer avec les autorités de régulation sur la sécurité et l'innovation.
Au cœur de la controverse se trouve un projet de loi nommé SB-1047, intitulé "Loi sur la sécurité et l'innovation des modèles d'intelligence artificielle de pointe". Ce projet de loi vise à établir des normes de sécurité claires pour les modèles d'IA à haut risque, afin de prévenir les abus ou les conséquences catastrophiques.
Les principaux points du projet de loi comprennent :
-
Il s'applique aux modèles d'IA utilisant plus de 10^26 opérations ou coûtant plus de 100 millions de dollars à entraîner.
-
Il exige que les développeurs de modèles assument la responsabilité légale de l'utilisation en aval.
-
Il crée un "Département des modèles de pointe" comme organisme de régulation.
-
Il inclut des dispositions de protection des lanceurs d'alerte.
De nombreux scientifiques estiment que les dispositions du projet de loi sont déraisonnables et entraveront gravement l'innovation. Fei-Fei Li a souligné trois problèmes majeurs du projet de loi :
-
Il punit excessivement les développeurs, étouffant l'innovation.
-
Il entrave le développement open source.
-
Il affaiblit la recherche en IA dans le secteur public et académique.
Des dizaines de scientifiques se sont également opposés au projet de loi, estimant qu'il :
-
Créerait un "effet paralysant" sur la publication de modèles open source.
-
Utiliserait des méthodes non scientifiques pour prédire les risques de l'IA.
-
N'offrirait pas une protection suffisante aux modèles open source.
-
Affecterait l'emploi et le développement de carrière des étudiants.
Ce bras de fer reflète la tension entre sécurité et innovation dans le développement de l'IA, nécessitant un équilibre entre régulation et développement.