美国联邦上诉法院裁定,在审查期间,国防部可将安提普(Anthropic)列为供应链风险。该裁决与加州法院此前发布的、旨在保护安提普的临时禁令相抵触。此项“指定”实质上相当于将安提普列入黑名单,因其供应链顾虑而限制其参与政府业务。这一争议源于安提普拒绝修改其人工智能模型“Claude",移除安全限制。这些限制防止该模型被用于大规模监控和自主武器开发。安提普优先推行“宪法性人工智能”及合乎伦理的部署,包括上述 safeguards(保障措施)。五角大楼希望获得 Claude 对所有合法军事用途的无限制访问,从而引发冲突。代理司法部长布兰奇称赞上诉法院的裁决是提升军事准备就绪能力的胜利。作为由主要投资者支持的 AI 领军企业,安提普强调安全、可靠的人工智能开发。此案标志着此类“指定”首次用于美国人工智能公司。该争端凸显了人工智能伦理与国防技术获取之间的紧张关系,预计诉讼将持续进行。
zerohedge.com
Federal Appeals Court Allows Pentagon To Designate Anthropic As A Supply-Chain Risk
