캘리포니아의 "미래 인공 지능 모델의 안전하고 안전한 혁신 법안" (SB-1047)은 대규모 인공 지능 모델의 "안전성"에 대한 관심과 논쟁을 불러일으켰다. 그러나 비평가들은 이 법안이 장래 AI 모델에 의해 발생할 수 있는 존재론적 위협에 너무 초점을 맞추고 있어 오늘날 실제 사용되는 AI 개발을 심각하게 제한할 수 있다고 우려하고 있다.
Scott Wiener 주 상원의원이 제안한 SB-1047은 5월에 캘리포니아 상원에서 32-1로 통과했으며 8월에 최종 표결을 앞두고 있다. 이 법안은 1억 달러 이상의 훈련 비용과 오늘날 그러한 비용에 의해 암시되는 컴퓨팅 파워를 가진 AI 모델을 개발하는 회사에 테스트 절차와 시스템을 구축하여 "안전 사고"를 예방하고 대응하도록 요구하고 있다.
이 법안은 "안전 사고"를 정의하고, 그에 따라 AI 시스템이 초래할 수 있는 "중대한 해"를 정의하고 있다. 그것은 "대량 사상 또는 최소 5억 달러의 손실"을 초래하는 해를 포함하여 "화학, 생물, 방사선 또는 핵무기"의 생성 또는 사용, "임박한 인프라에 대한 사이버 공격 지침" 등이다. 또한 이 법안은 명시적으로 열거된 것과 동등한 중대성을 지닌 "공공 안전 및 보안에 대한 기타 중대한 해"를 암시하고 있다.
arstechnica.com
From sci-fi to state law: California’s plan to prevent AI catastrophe
Create attached notes ...