連邦控訴裁判所は、審査が行われている間、陸軍省がAnthropicをサプライチェーンリスクに指定できると決定しました。この判決は、Anthropicを保護していたカリフォルニア州裁判所の以前の仮差し止め命令と矛盾しています。この指定は、Anthropicを事実上ブラックリストに載せ、サプライチェーンに関する懸念から政府との取引を制限するものです。これは、AnthropicがAIモデルClaudeの安全制限を削除することを拒否したことに起因しています。これらの制限は、大量監視や自律型兵器の開発への使用を阻止するものです。Anthropicは、「憲法に則ったAI」と倫理的な展開を優先し、これらの安全対策を含めています。国防総省は、すべての合法的な軍事利用のためにClaudeへの無制限のアクセスを求めており、これが対立の火種となっています。代理司法長官ブランシュは、控訴裁判所の決定を軍事準備の勝利として称賛しました。主要投資家から支援を受けているAIリーダーであるAnthropicは、安全で信頼性の高いAI開発を強調しています。この事件は、米国のAI企業に対するこのような指定の最初の使用例となります。この紛争は、AI倫理と防衛技術へのアクセスの間の緊張を浮き彫りにし、継続的な訴訟が予想されています。
zerohedge.com
Federal Appeals Court Allows Pentagon To Designate Anthropic As A Supply-Chain Risk
Create attached notes ...
