Пентагон называет антропную угрозу цепочке поставок с высоким уровнем риска

После спорных переговоров Министерство обороны США официально назвало Anthropic «риском для цепочки поставок», запретив оборонным подрядчикам использовать технологию искусственного интеллекта компании. Это обостряет противоречия по поводу политики приемлемого использования.
Anthropic, известная компания в области искусственного интеллекта, была официально отнесена Министерством обороны США к риску цепочки поставок, что привело к эскалации продолжающегося спора по поводу использования технологии компании. Это решение, о котором впервые сообщила The Wall Street Journal, запретит оборонным подрядчикам использовать Claude, ведущую программу искусственного интеллекта Anthropic, в продуктах, предназначенных для государственного использования.
Этот статус, обычно применяемый к организациям или технологиям, представляющим угрозу национальной безопасности, был получен после недель неудачных переговоров, публичных ультиматумов и угроз судебных исков между Пентагоном и Anthropic. Этот шаг Пентагона представляет собой значительную эскалацию конфликта по поводу политики допустимого использования, регулирующей предложения Anthropic в области искусственного интеллекта.
<изображение src="https://platform.theverge.com/wp-content/uploads/sites/2/2025/02/LA-Times-headshot-copy.jpeg?quality=90&strip=all&crop=3.0503978779841%2C0%2C93.899204244032%2C100&w=2400" alt="Чиновники Пентагона обсуждают антропную ситуацию" />Хотя ярлык риск цепочки поставок обычно применяется к иностранным организациям или технологиям, решение Пентагона применить его к Anthropic подчеркивает растущую напряженность между правительством и компанией, занимающейся искусственным интеллектом, по поводу позиции последней по таким вопросам, как автономное оружие и массовое наблюдение.
Anthropic давно утверждает, что не позволит использовать свой ИИ в оружии или в целях массового наблюдения, и эта политика, по-видимому, противоречит приоритетам Министерства обороны. Компания пригрозила подать в суд, если Пентагон попытается заставить своих подрядчиков использовать технологию Anthropic в нарушение этических принципов фирмы.
Официальное отнесение Anthropic к риску цепочки поставок может иметь серьезные последствия для отношений компании с оборонными подрядчиками и правительством в целом. Еще неизвестно, как Anthropic отреагирует на эту последнюю эскалацию, но продолжающееся столкновение между фирмой, занимающейся искусственным интеллектом, и Пентагоном, несомненно, является битвой с высокими ставками и далеко идущими последствиями для всей технологической отрасли.
Пока Пентагон продолжает бороться с этическими последствиями и последствиями для безопасности передовых технологий искусственного интеллекта, случай Anthropic подчеркивает растущее противоречие между приоритетами правительства и принципами технологических компаний. Это столкновение может задать тон будущему взаимодействию между военными и индустрией искусственного интеллекта, что будет иметь серьезные последствия для разработки и внедрения этих преобразующих технологий.
Источник: The Verge


