Anthropic заперечує можливість саботувати інструменти ШІ під час війни

Керівники Anthropic спростовують заяви Міністерства оборони про те, що компанія може маніпулювати своїми моделями ШІ під час війни, стверджуючи, що це технологічно неможливо.
У результаті несподіваного повороту подій дослідницька компанія штучного інтелекту Anthropic рішуче спростувала звинувачення міністерства оборони про те, що вона потенційно може саботувати або маніпулювати своїми інструментами штучного інтелекту під час війни. Ця заява, висунута представниками оборони, зустріла рішучу відмову з боку керівників Anthropic, які стверджують, що такі дії просто неможливі з технологічної точки зору.
Суть занепокоєння Міністерства оборони полягає в тому, що моделі штучного інтелекту Anthropic, які є дуже передовими та потужними, теоретично можуть бути змінені або скомпрометовані самою компанією, навіть після розгортання для використання військовими. Це викликає сумніви щодо надійності та достовірності технології, особливо у сценаріях військового часу з високими ставками.
Anthropic відповів, категорично спростувавши ці звинувачення, заявивши, що системи компанії розроблені з надійними заходами безпеки та безвідмовними засобами, які практично унеможливлюють втручання або саботаж, навіть власними співробітниками Anthropic. Керівництво компанії офіційно стверджує, що те, що вони навмисно підривають власні інструменти ШІ під час конфлікту, просто нереально з інженерної та технічної точки зору.
Намагаючись усунути занепокоєння Міністерства оборони, Anthropic запропонував пройти додаткові аудити та оцінки безпеки, щоб продемонструвати стійкість і надійність своїх систем ШІ. Компанія також висловила готовність тісно співпрацювати з урядовими установами, щоб розробити додаткові заходи безпеки та протоколи, які б запобігли будь-якому потенційному неправильному використанню або маніпулюванню її технологією, навіть у найгірших обставинах.
Ця суперечка підкреслює зростання напруженості між роллю приватного сектору в розробці передових технологій ШІ та бажанням уряду зберегти контроль і нагляд за цими критично важливими інструментами, особливо в питаннях національної безпеки. Оскільки використання штучного інтелекту продовжує розширюватися як у цивільних, так і у військових програмах, це зіткнення точок зору, ймовірно, ставатиме все більш актуальною проблемою, яка потребуватиме нюансованих рішень і співпраці між зацікавленими сторонами промисловості та уряду.
Зрештою, головне питання, яке лежить в основі цієї дискусії, полягає в тому, чи можна довіряти Anthropic та іншим компаніям зі штучного інтелекту, щоб вони підтримували цілісність і надійність своїх технологій навіть в умовах надзвичайного тиску чи конфлікту. Рішучі заперечення та пропозиції щодо підвищення прозорості компанії свідчать про бажання зняти ці занепокоєння, але довгострокові наслідки цього зіткнення ще належить побачити, оскільки індустрія ШІ продовжує розвиватися, а її роль у національній безпеці зростає.
Джерело: Wired


