Pentagon проти Anthropic: Розгортається суперечка щодо контракту щодо безпеки AI

Міністерство оборони та Anthropic конфліктують щодо протоколів безпеки штучного інтелекту під час важливих переговорів щодо контрактів Пентагону, які впливають на військове розгортання штучного інтелекту.
Значна суперечка щодо безпеки штучного інтелекту виникла між Міністерством оборони США та Anthropic, однією з провідних компаній штучного інтелекту, оскільки переговори щодо важливого контракту з Пентагоном зайшли в глухий кут. Розбіжності зосереджені на фундаментальних питаннях щодо того, як системи штучного інтелекту слід розгортати у військових умовах і які заходи безпеки необхідно вживати для захисту інтересів національної безпеки.
Переговори про контракт, які тривають кілька місяців, передбачають потенційне розгортання технології штучного інтелекту від Anthropic у різних операціях Міністерства оборони. Джерела, обізнані з обговореннями, вказують, що основним питанням спотикання є протоколи безпеки та ступінь, до якого системи штучного інтелекту Anthropic можуть бути модифіковані або обмежені для військових застосувань без шкоди для їх ефективності чи порушення етичних принципів компанії.
Офіційні особи Пентагону висловили розчарування тим, що вони сприймають як надмірно обмежувальні заходи безпеки, запропоновані Anthropic, стверджуючи, що що такі обмеження можуть перешкодити здатності військових ефективно використовувати штучний інтелект у критичних операціях. Міністерство оборони стверджує, що вимоги національної безпеки вимагають певних змін до стандартних протоколів безпеки штучного інтелекту, особливо в сценаріях, пов’язаних із оперативним аналізом розвідувальних даних і процесами прийняття стратегічних рішень.
З іншого боку, представники Anthropic твердо дотримувалися стандартів безпеки штучного інтелекту, наголошуючи, що порушення цих принципів може створити небезпечні прецеденти для ШІ в цілому. промисловість. Компанія вклала значні кошти в розробку того, що вона називає «конституційним штучним інтелектом» – систем, розроблених із вбудованими заходами безпеки та етичними обмеженнями, які запобігають неправильному використанню або небажаним наслідкам.
Суперечка відображає ширшу напругу в спільноті штучного інтелекту щодо відповідного балансу між інноваціями та безпекою, особливо коли йдеться про урядові та військові програми. Галузеві експерти зазначають, що ця розбіжність може мати далекосяжні наслідки для того, як компанії зі штучним інтелектом співпрацюють з державними установами та чи можна встановити стандартизовані протоколи безпеки в різних секторах.
Згідно з аналітиками оборонної промисловості, Пентагон усе більше зосереджується на інтеграції штучного інтелекту у свою діяльність у рамках ширшої модернізації, спрямованої на підтримку технологічна перевага над потенційними супротивниками. Ця ініціатива призвела до численних партнерств із приватними компаніями штучного інтелекту, хоча не всі пройшли гладко через занепокоєння щодо безпеки, етики та належного використання.
Особливі технічні аспекти розбіжностей залишаються в основному засекреченими, але джерела припускають, що ключовими проблемами є протоколи обробки даних, вимоги щодо прозорості алгоритмів і ступінь, до якого військовий персонал матиме можливості перевизначення для рекомендацій, створених ШІ. Ці занепокоєння є особливо гострими з огляду на потенційні наслідки для життя та смерті у процесах прийняття військових рішень.
Позиція Anthropic у цій суперечці узгоджується з публічною позицією компанії щодо безпеки штучного інтелекту, яка була наріжним каменем її корпоративної ідентичності з моменту її заснування колишніми дослідниками OpenAI. Компанія неодноразово наголошувала на своїй прихильності розробці систем штучного інтелекту, які є безпечними, керованими та відповідають людським цінностям, навіть якщо такі принципи створюють проблеми для комерційного партнерства.
Переговори також висвітлили складний нормативний ландшафт навколо військових програм ШІ. На відміну від цивільного розгортання штучного інтелекту, військові системи штучного інтелекту повинні відповідати додатковим рівням нагляду та процесів схвалення, включаючи перевірки різними комітетами з питань оборони та відповідності міжнародному праву збройних конфліктів.
Юридичні експерти, які спеціалізуються на праві технологій, припускають, що результат цих переговорів може створити важливі прецеденти для майбутніх контрактів між компаніями ШІ та державними установами. Вирішення цієї суперечки може вплинути на те, як інші великі розробники штучного інтелекту, зокрема OpenAI, Google DeepMind і Microsoft, підходять до подібних партнерств із федеральними агентствами.
Час виникнення цієї суперечки особливо важливий, враховуючи ширший геополітичний контекст навколо розробки та розгортання ШІ. У той час як країни всього світу змагаються за використання штучного інтелекту для цілей національної безпеки, Сполучені Штати стикаються з тиском швидкої інтеграції цих технологій, дотримуючись при цьому етичних стандартів і протоколів безпеки, які відрізняють демократичні підходи від підходів авторитарних конкурентів.
Світові спостерігачі відзначають, що стратегія штучного інтелекту Міністерства оборони значно змінилася за останні кілька років, рухаючись. від експериментальних пілотних програм до широкомасштабних зусиль впровадження. Цей перехід вимагав нових інфраструктур для оцінки та розгортання систем штучного інтелекту, що часто спричиняло тертя з компаніями, які розробили власні стандарти безпеки та операційні вказівки.
Фінансові наслідки цієї суперечки виходять за межі безпосередньої вартості контракту, що потенційно може вплинути на ширшу бізнес-стратегію Anthropic та її відносини з іншими урядовими клієнтами. Оборонні контракти часто є важливим джерелом доходу для компаній зі штучним інтелектом і можуть забезпечити перевірку їхніх технологій у середовищах із високими ставками.
Тим часом наглядові комітети Конгресу почали проявляти підвищений інтерес до того, як Міністерство оборони підходить до закупівлі та розгортання ШІ. Декілька законодавців закликали до більшої прозорості в цих процесах, стверджуючи, що платники податків заслуговують на те, щоб розуміти, як витрачаються їхні гроші на нові технології та які гарантії існують для запобігання зловживанням.
Вирішення цієї суперечки щодо контракту на безпеку штучного інтелекту, ймовірно, вимагатиме компромісів від обох сторін, потенційно залучаючи сторонні механізми нагляду, модифіковані протоколи безпеки або підходи до поетапного впровадження, які дозволяють для поступової інтеграції технології Anthropic із збереженням основних стандартів безпеки. Такі рішення можуть слугувати моделями для майбутніх переговорів між компаніями ШІ та державними установами в різних департаментах і агенціях.
Поки ці переговори тривають, ширша спільнота ШІ уважно спостерігає, визнаючи, що результат може суттєво вплинути на майбутній ландшафт партнерства між урядом і галуззю у розробці та розгортанні штучного інтелекту, особливо в чутливих контекстах національної безпеки, де ставки є найвищими.
Джерело: The New York Times


