カリフォルニア州の「フロンティア人工知能モデルに対する安全かつセキュアなイノベーション法」(SB-1047)は、人工知能モデルの「安全性」に関する議論と見出しを引き起こしている。この法案が将来のAIモデルが存在する脅威に過剰に焦点を当てることで、現在のより実用的なAIの研究開発が大幅制限されることを懸念している批判者がいる。
SB-1047は、州上院議員スコット・ウィーナーが提案し、5月にカリフォルニア州上院で32対1の票決で通過し、8月に州議会で最終投票に向けて順調に進んでいる。この法案は、100万ドル以上の訓練費用で大型AIモデルを開発している企業に対し、テスト手順やシステムを確立して「安全性事故」を防止し、対応することを要求している。
この法案は、「安全性事故」を定義し、それがAIシステムが引き起こす可能性のある「深刻な害」に焦点を当てる。深刻な害には、「大量の犠牲者や少なくとも5億ドルの損害」を引き起こすものが含まれ、「化学兵器、生物兵器、放射能兵器、核兵器の創造や使用」(こんにちは、スカイネット?)や「クリティカル・インフラストラクチャーに対するサイバー攻撃の実行指令」が含まれる。この法案は、明示的に列挙されたものに加えて、「公共の安全とセキュリティーに対する他の深刻な害」も暗示している。
arstechnica.com
From sci-fi to state law: California’s plan to prevent AI catastrophe
Create attached notes ...