Федеральный апелляционный суд постановил, что Министерство обороны может обозначить Anthropic как риск для цепочки поставок на время проведения проверки. Это решение противоречит предыдущему временному судебному запрету суда Калифорнии, защищавшему Anthropic. Данное обозначение фактически вносит Anthropic в черный список, ограничивая ее деятельность с правительством из-за проблем с цепочкой поставок. Это связано с отказом Anthropic изменить свою модель ИИ, Claude, путем удаления ограничений безопасности. Эти ограничения препятствуют ее использованию для массового наблюдения и разработки автономного оружия. Anthropic отдает приоритет "конституционному ИИ" и этичному развертыванию, включая эти меры предосторожности. Пентагон хочет неограниченный доступ к Claude для всех законных военных целей, что и вызвало конфликт. Исполняющая обязанности генерального прокурора Бланш похвалила решение апелляционного суда как победу для военной готовности. Anthropic, лидер в области ИИ, поддерживаемый крупными инвесторами, подчеркивает безопасную и надежную разработку ИИ. Этот случай знаменует первое использование такого обозначения в отношении американской компании, занимающейся ИИ. Спор подчеркивает напряженность между этикой ИИ и доступом к оборонным технологиям, ожидается продолжение судебных разбирательств.
zerohedge.com
Federal Appeals Court Allows Pentagon To Designate Anthropic As A Supply-Chain Risk
Create attached notes ...
