简体中文版人工智能和 ML 新闻

从科幻到州法:加利福尼亚防止AI灾难的计划

加利福尼亚州的“边疆人工智能模型安全创新法案”(又名SB-1047)引发了一系列标题和关于大型人工智能模型“安全”的辩论。然而,批评家担心,该法案对未来AI模型存在的生存威胁的夸大关注可能会严重限制今天为更加实用、非威胁性AI用途的研究和开发。 SB-1047由州参议员斯科特·维纳提出,于五月在加利福尼亚州议会中以32-1的投票结果通过,似乎在8月份的州议会最终投票中处于有利地位。该法案要求大型AI模型背后的公司(目前规定为1000万美元的培训成本和今天这些成本所暗示的计算能力)建立测试程序和系统,以预防和应对“安全事件”。 该法案对“安全事件”的法律定义是基于定义一系列“关键伤害”,这些伤害可能会被AI系统所允许。这些伤害包括可能导致“大规模伤亡或至少5亿美元损害”的伤害,如“化学、生物、辐射或核武器的制造或使用”(你好,天网?)或“对关键基础设施进行网络攻击的精确指令”。该法案还提到了“与明确列举的伤害相比的其他严重公共安全和安全威胁”。
arstechnica.com
From sci-fi to state law: California’s plan to prevent AI catastrophe
Create attached notes ...