Законопроект Калифорнии под названием "Закон о безопасной и безопасной инновации для передовых моделей искусственного интеллекта" (также известный как SB-1047) вызвал волну заголовков и дебатов по поводу общей "безопасности" крупных моделей искусственного интеллекта. Однако критики обеспокоены тем, что чрезмерный акцент законопроекта на экзистенциальных угрозах, которые могут представлять будущие модели ИИ, может серьезно ограничить исследования и разработки для более приземленных, не угрожающих безопасности целей использования ИИ сегодня.
SB-1047, внесенный сенатором Скоттом Винером, был принят Сенатом Калифорнии в мае с результатом 32 голоса за и 1 голосом против и, похоже, находится в хорошей позиции для окончательного голосования в Ассамблее штата в августе. Текст законопроекта требует от компаний, разрабатывающих достаточно крупные модели ИИ (сегодня это определено как затраты на обучение в размере 100 миллионов долларов и соответствующая вычислительная мощность), внедрять процедуры тестирования и системы для предотвращения и реагирования на "инциденты безопасности".
Законопроект содержит юридическое определение этих инцидентов безопасности, которое в свою очередь фокусируется на определении набора "критических вредов", которые может причинить система ИИ. Это включает в себя вред, приводящий к "массовым жертвам или ущербу на сумму не менее 500 миллионов долларов", такие как "создание или использование химического, биологического, радиологического или ядерного оружия" (здравствуйте, Скайнет?) или "точные инструкции по проведению кибератаки... на критической инфраструктуре". Законопроект также ссылается на "другие тяжкие вреды для общественной безопасности и безопасности, сопоставимые по степени тяжести" с теми, что изложены явно.
arstechnica.com
From sci-fi to state law: California’s plan to prevent AI catastrophe
Create attached notes ...