연방 항소 법원은 전쟁부가 검토가 진행되는 동안 Anthropic을 공급망 위험으로 지정할 수 있다고 결정했습니다. 이 판결은 Anthropic을 보호하는 캘리포니아 법원의 이전 임시 금지 명령과 상반됩니다. 이 지정은 Anthropic을 사실상 블랙리스트에 올리고 공급망 우려로 인해 정부 사업을 제한합니다. 이는 Anthropic이 안전 제한을 제거하여 AI 모델 Claude를 수정하는 것을 거부한 데서 비롯됩니다. 이러한 제한은 대량 감시 및 자율 무기 개발에 사용되는 것을 방지합니다. Anthropic은 이러한 안전 장치를 포함하여 "헌법적 AI"와 윤리적 배치를 우선시합니다. 국방부는 모든 합법적인 군사적 사용을 위해 Claude에 대한 무제한 접근을 원하며, 이로 인해 갈등이 촉발되었습니다. 블랑쉬 법무장관 대행은 항소 법원 결정을 군사 준비 태세에 대한 승리로 칭찬했습니다. 주요 투자자들의 지원을 받는 AI 리더인 Anthropic은 안전하고 신뢰할 수 있는 AI 개발을 강조합니다. 이 사건은 미국 AI 회사에 대한 이러한 지정의 첫 번째 사용을 나타냅니다. 이 분쟁은 AI 윤리와 국방 기술 접근 사이의 긴장을 강조하며, 지속적인 소송이 예상됩니다.
zerohedge.com
Federal Appeals Court Allows Pentagon To Designate Anthropic As A Supply-Chain Risk
