Пентагон називає Anthropic високоризиковою загрозою для ланцюга поставок

Після суперечливих переговорів Міністерство оборони США офіційно позначило Anthropic як «ризик для ланцюжка поставок», заборонивши оборонним підрядникам використовувати технології ШІ компанії. Це посилює суперечку щодо політики прийнятного використання.
Anthropic, відома компанія зі штучного інтелекту, була офіційно визнана Міністерством оборони США небезпечною для ланцюга постачання, що посилило поточну суперечку щодо використання технології фірми. Це рішення, про яке вперше повідомило The Wall Street Journal, забороняє підрядникам оборонного сектору використовувати Claude, провідну програму штучного інтелекту Anthropic, у продуктах, призначених для використання урядом.
Позначення, яке зазвичай застосовується до організацій або технологій, які становлять загрозу національній безпеці, настає після тижнів невдалих переговорів, публічних ультиматумів і загроз судового позову між Пентагоном і Anthropic. Цей крок Пентагону є значним загостренням суперечок щодо політики прийнятного використання, що регулює пропозиції Anthropic AI.
<зображення src="https://platform.theverge.com/wp-content/uploads/sites/2/2025/02/LA-Times-headshot -copy.jpeg?quality=90&strip=all&crop=3.0503978779841%2C0%2C93.899204244032%2C100&w=2400" alt="Представники Пентагону обговорюють антропну ситуацію" />Хоча позначка ризик ланцюга постачання зазвичай зарезервована для іноземних організацій або технологій, рішення Пентагону застосувати її до Anthropic підкреслює зростаючу напругу між урядом і компанією штучного інтелекту через позицію останньої щодо таких питань, як автономна зброя та масове спостереження.
Anthropic тривалий час стверджувала, що не дозволить використовувати свій штучний інтелект у зброї чи для цілей масового спостереження, політика, яка, здається, суперечить пріоритетам Міністерства оборони. Компанія погрожувала судовим позовом, якщо Пентагон спробує змусити своїх підрядників використовувати технологію Anthropic всупереч етичним принципам фірми.
Офіційне визнання Anthropic ризиком для ланцюга постачання може мати значні наслідки для відносин компанії з оборонними підрядниками та урядом загалом. Залишається побачити, як Anthropic відреагує на цю останню ескалацію, але поточне зіткнення між фірмою штучного інтелекту та Пентагоном, безсумнівно, є битвою з високими ставками з далекосяжними наслідками для всієї технологічної галузі.
Оскільки Пентагон продовжує боротися з етичними наслідками та наслідками для безпеки передових технологій штучного інтелекту, справа Anthropic підкреслює зростаючу напругу між пріоритетами уряду та принципами технологічних компаній. Це зіткнення може задати тон для майбутніх взаємодій між військовими та індустрією штучного інтелекту, що матиме значні наслідки для розробки та розгортання цих трансформаційних технологій.
Джерело: The Verge


