Ученые выступили против законопроекта об ограничении ИИ в Калифорнии, Ли Фейфей возглавляет инициативу

Законопроект SB-1047 Калифорнии вызвал горячие дискуссии в области искусственного интеллекта.

На инновационной почве Кремниевой долины ученые в области ИИ, такие как Ли Фейфей и Эндрю Нг, ведут борьбу с регулирующими органами по вопросам безопасности и инноваций.

В центре споров находится законопроект под названием SB-1047, полное название которого "Закон о безопасности и инновациях передовых моделей искусственного интеллекта". Этот законопроект пытается установить четкие стандарты безопасности для высокорисковых моделей ИИ, чтобы предотвратить злоупотребления или катастрофические последствия.

Основные положения законопроекта включают:

  1. Применяется к моделям ИИ, обученным с использованием более 10^26 операций или стоимостью более 100 миллионов долларов.

  2. Требует от разработчиков моделей нести юридическую ответственность за последующее использование.

  3. Создание "Отдела передовых моделей" в качестве регулирующего органа.

  4. Включение положений о защите информаторов.

Многие ученые считают положения законопроекта необоснованными и серьезно препятствующими инновациям. Ли Фейфей указывает на три основные проблемы законопроекта:

  1. Чрезмерное наказание разработчиков, подавление инноваций.

  2. Ограничение разработки с открытым исходным кодом.

  3. Ослабление исследований ИИ в государственном секторе и академических кругах.

Десятки ученых также совместно выступили против этого законопроекта, считая, что он:

  1. Создаст "сдерживающий эффект" для выпуска моделей с открытым исходным кодом.

  2. Содержит ненаучные методы прогнозирования рисков ИИ.

  3. Недостаточно защищает модели с открытым исходным кодом.

  4. Влияет на трудоустройство студентов и развитие карьеры.

Эта борьба отражает противоречие между безопасностью и инновациями в развитии ИИ, и необходимо искать баланс между регулированием и развитием.

Ссылка на законопроект