Антропические битвы стартапа AI из-за военного использования его инструмента «Клод»

Anthropic борется с противоречивыми решениями суда о поставке своего помощника по искусственному интеллекту «Клода» военным США, что вызывает споры о роли технологических компаний в национальной обороне.
В продолжающейся судебной тяжбе компания, занимающаяся искусственным интеллектом Anthropic, сталкивается с противоречивыми решениями суда по поводу ограничений, налагаемых на использование ее ИИ-помощника «Клод» военными США. Апелляционный суд США оставил в силе предыдущее решение сохранить маркировку риска цепочки поставок для программного обеспечения Anthropic, что ограничивает возможности военных по внедрению этой технологии.
Знак риска цепочки поставок изначально был введен Министерством обороны США из соображений национальной безопасности. Anthropic борется за удаление этого ярлыка, утверждая, что он несправедливо ограничивает доступ военных к своей технологии искусственного интеллекта. Компания утверждает, что этот лейбл может помешать ей вести дела с правительством и подавить технологические инновации.
Однако Апелляционный суд поддержал предыдущее решение, заявив, что маркировка риска цепочки поставок является разумной мерой для защиты интересов национальной безопасности. Суд отметил, что маркировка не полностью запрещает военным использование Клода, а скорее накладывает дополнительный контроль и ограничения на его применение.
{{IMAGE_PLACEHOLDER}}Источник: Wired


