США запускають програму тестування безпеки для AI Giants

Міністерство торгівлі співпрацює з Google, Microsoft і xAI для оцінки безпеки нових моделей штучного інтелекту на основі адміністративних структур Байдена.
Уряд Сполучених Штатів оголосив про важливу нову ініціативу з оцінки безпеки передових моделей штучного інтелекту, розроблених провідними технологічними компаніями. Відповідно до нещодавно укладених угод між Міністерством торгівлі та великими розробниками штучного інтелекту, зокрема Google, Microsoft і xAI, федеральний уряд проведе комплексні протоколи тестування безпеки наступного покоління систем ШІ. Ці домовленості являють собою продовження та розширення механізмів нагляду, які спочатку були створені під час перебування на посаді попередньої адміністрації.
Структура тестування базується безпосередньо на основоположних угодах, досягнутих під час адміністрації Байдена, які прагнули встановити базові стандарти безпеки для розробки моделі ШІ. Замість того, щоб демонтувати ці структури, нинішня адміністрація вирішила вдосконалити та розширити їх як частину своєї ширшої програми технологічної політики. Цей підхід відображає зростаюче визнання двома партіями того, що може знадобитися певний рівень державного нагляду, щоб гарантувати, що потужні системи ШІ розробляються відповідально та безпечно розгортаються в критично важливих секторах економіки.
Протягом перших тижнів перебування на посаді президент США Дональд Трамп підписав ряд указів, спрямованих на формування підходу його адміністрації до управління штучним інтелектом. Ці накази разом лягли в основу того, що офіційні особи назвали «Планом дій AI», ініціативою, яку представники адміністрації Трампа охарактеризували як розроблену для «зменшення нормативного тягаря», зберігаючи при цьому суттєвий нагляд за безпекою. У плані наголошується на усуненні непотрібних бюрократичних перешкод, які можуть перешкоджати інноваціям, зберігаючи при цьому цілеспрямовану участь уряду в оцінюванні найважливіших питань безпеки.
Роль Міністерства торгівлі в цьому процесі нагляду стає все більш центральною для федеральної реалізації політики AI. Департамент є основним федеральним органом, відповідальним за сприяння цим угодам щодо перевірки безпеки та забезпечення того, щоб компанії-учасники відповідали встановленим критеріям. Представники Міністерства торгівлі зазначили, що ці протоколи тестування будуть зосереджені на оцінці того, чи створюють передові моделі штучного інтелекту потенційні ризики в таких сферах, як кібербезпека, біологічні дослідження та інших чутливих областях, де неправильне використання може мати серйозні наслідки.
Google, Microsoft і xAI представляють трьох найвідоміших розробників великих мовних моделей та інших передових систем ШІ, які зараз розробляються в Сполучених Штатах. Дослідницький підрозділ Google зі штучного інтелекту створив такі моделі, як Gemini, а Microsoft вклала значні кошти в партнерство з OpenAI і розробила власні можливості штучного інтелекту. xAI, новітнє підприємство Ілона Маска зі штучним інтелектом, привернуло увагу завдяки швидкому розвитку конкурентоспроможних великих мовних моделей. Кожна з цих компаній використовує різні підходи, архітектури та філософію безпеки до своїх процесів розробки ШІ.
Добровільність цих угод є визначальною характеристикою поточного підходу до регулювання. Замість того, щоб встановлювати обов’язкові державні вимоги через законодавство чи офіційне регулювання, федеральні чиновники домовилися про ці домовленості про тестування шляхом безпосередньої взаємодії з самими компаніями. Такий підхід узгоджується із заявленою адміністрацією Трампа перевагою галузевих механізмів управління, доповнених державним наглядом, а не регуляторними мандатами, що йдуть зверху вниз, і які, на думку чиновників, можуть придушити інновації.
Спеціальні методології перевірки безпеки, які використовуються в рамках цих угод, вивчатимуть, як моделі штучного інтелекту реагують на суперечливі підказки, спроби обійти інструкції з безпеки та інші можливі сценарії неправильного використання. Оцінювачі оцінять, чи можна маніпулювати моделями для створення шкідливого вмісту або допомоги в небезпечних діях. Ці тести представляють собою спробу виявити вразливості в системах штучного інтелекту до того, як вони стануть широко розгорнутими та доступними для широкого загалу чи потенційно зловмисників.
Наступність із системою адміністрації Байдена свідчить про те, що певні основні принципи державного нагляду отримали підтримку обох партій. Попередня адміністрація дотримувалася більш легкого регуляторного підходу, зосередженого на угодах про добровільне тестування та розробці галузевих стандартів, а не на приписах. Ця система виявилася більш прийнятною для технологічних компаній, ніж більш агресивні нормативні пропозиції, які поширювалися в Конгресі, але вона зберегла значущу участь уряду в процесах оцінки безпеки.
Час укладення цих угод відображає постійну напругу між просуванням інновацій ШІ та вирішенням законних проблем безпеки. Технологічний сектор постійно попереджає, що надмірно обтяжливі правила можуть підштовхнути розвиток штучного інтелекту за кордоном до країн із менш суворими вимогами безпеки або слабкішими механізмами нагляду. Федеральні чиновники намагалися збалансувати ці занепокоєння, зберігаючи нагляд за безпекою, зводячи до мінімуму бюрократичне тертя під час розробки та розгортання нових можливостей ШІ.
Галузові спостерігачі відзначили, що такий регуляторний підхід може вплинути на те, як інші країни структурують свої власні системи управління ШІ. Оскільки Сполучені Штати, Європейський Союз та інші великі економіки розвивають різні підходи до нагляду за штучним інтелектом, компанії, які працюють на міжнародному рівні, повинні керуватися різними режимами регулювання. Акцент Міністерства торгівлі на збереженні інноваційної спроможності при збереженні нагляду за безпекою потенційно може стати моделлю для міжнародної координації стандартів управління ШІ.
Процес оцінки безпеки штучного інтелекту, ймовірно, включатиме вправи з об’єднання команд, під час яких незалежні оцінювачі намагатимуться виявити слабкі місця в механізмах безпеки систем ШІ. Ці вправи моделюють, як зловмисники можуть спробувати використати вразливості, допомагаючи розробникам зрозуміти, які ризики потребують додаткового пом’якшення. Результати цих оцінок інформуватимуть як про внутрішню практику компанії, так і про федеральне розуміння поточного стану безпеки ШІ в галузі.
Надалі ці угоди щодо тестування можуть розширюватися, щоб включити додаткових розробників ШІ та охоплювати нові категорії моделей і програм ШІ. Оскільки технологія штучного інтелекту продовжує швидко розвиватися, а нові компанії виходять на сферу передових розробок штучного інтелекту, Міністерству торгівлі може знадобитися скорегувати свої механізми нагляду. Поточна структура, здається, розроблена з гнучкістю, щоб врахувати технологічні зміни та нові проблеми безпеки, які, можливо, ще не повністю зрозумілі.
Зацікавлені сторони з усього політичного спектру висловили різні точки зору щодо відповідного рівня та характеру державного нагляду за ШІ. У той час як деякі прихильники стверджують, що для запобігання шкідливому розвитку штучного інтелекту необхідні більш суворі обов’язкові правила, інші стверджують, що добровільні підходи зберігають інноваційні стимули, які зробили Сполучені Штати світовим лідером у дослідженні ШІ. Угоди Міністерства торгівлі представляють собою спробу втягнути цю нитку в цю голку, зберігаючи участь уряду, поважаючи галузеві переваги щодо спільних, а не конфронтаційних підходів до управління.
Джерело: BBC News


