Уряд США тестує моделі ШІ від Google, Microsoft, xAI

Нові угоди про добровільне тестування безпеки між великими компаніями ШІ та Міністерством торгівлі розширюють ініціативи адміністрації Байдена щодо безпеки ШІ.
Уряд Сполучених Штатів оголосив про значне розширення своєї програми тестування безпеки штучного інтелекту, об’єднавши провідні технологічні компанії, зокрема Google, Microsoft і xAI, для комплексної оцінки їхніх останніх моделей штучного інтелекту. Ці нові угоди є продовженням і зміцненням зусиль, розпочатих під час адміністрації Байдена, щоб гарантувати, що передові системи ШІ відповідають критичним стандартам безпеки перед широким розгортанням.
Міністерство торгівлі, яке є головним федеральним координатором цих ініціатив, оформило партнерство з цими гігантами галузі для проведення ретельної оцінки безпеки їхніх найсучасніших моделей. Цей спільний підхід відображає зростаючий консенсус серед державних службовців і лідерів галузі щодо того, що проактивне тестування безпеки є важливим, оскільки технологія штучного інтелекту стає все потужнішою та інтегрованою в критичні програми в суспільстві. Добровільний характер цих угод демонструє готовність великих технологічних компаній конструктивно взаємодіяти з регуляторним наглядом, зберігаючи інноваційний імпульс.
Ці нові протоколи тестування базуються безпосередньо на фундаменті, закладеному під час адміністрації Байдена, яка започаткувала добровільну структуру зобов’язань безпеки ШІ. Ця попередня ініціатива об’єднала провідні компанії у спільній прихильності до відповідальної розробки ШІ, зосереджуючись на прозорості, безпеці та зменшенні ризиків. Розширення тепер охоплює більше компаній і більш складні методи тестування, що відображає швидку еволюцію ландшафту штучного інтелекту та дедалі складніші моделі, що розробляються.
Google, одна з найбільших у світі технологічних компаній із значними можливостями дослідження та розробки штучного інтелекту, брала активну участь у цих системах тестування безпеки. Участь компанії підкреслює важливість оцінки моделей, розроблених її підрозділом DeepMind та іншими дослідницькими ініціативами. Корпорація Майкрософт, яка інвестувала значні кошти в можливості штучного інтелекту завдяки партнерству з OpenAI і внутрішніми дослідницькими підрозділами, має значний досвід у розгортанні штучного інтелекту в корпоративному масштабі та унікальні ризики, пов’язані з інтеграцією штучного інтелекту в критично важливі для бізнесу системи.
xAI, нова компанія штучного інтелекту, заснована Ілоном Маском, представляє нового учасника групи компаній, які проходять федеральне тестування безпеки. Незважаючи на те, що xAI є молодшою організацією порівняно з Google і Microsoft, вона швидко розробила складні моделі штучного інтелекту, які вимагають такого ж рівня ретельного вивчення та оцінки, як і ті, що пропонуються більш визнаними технологічними гігантами. Включення xAI до цих угод щодо перевірки безпеки свідчить про визнання урядом технологічних можливостей компанії та її ролі у формуванні майбутнього розвитку ШІ.
Система тестування безпеки охоплює численні виміри оцінки системи штучного інтелекту, включаючи оцінку потенційних упереджень, вразливості системи безпеки та надійності засобів захисту від зловживання. Федеральні спеціалісти з оцінювання перевіряють, як ці моделі обробляють крайні випадки, чи створюють вони шкідливий вміст за певних умов і чи можуть їхні процеси прийняття рішень бути належним чином перевірені та зрозумілі наглядачам. Цей комплексний підхід визнає, що безпека штучного інтелекту – це не один показник, а багатогранна проблема, яка потребує ретельного вивчення багатьох аспектів.
Міністерство торгівлі підкреслило, що ці угоди про тестування залишаються цілком добровільними, що відображає переконання міністерства в тому, що галузева співпраця є найефективнішою, коли досягається через партнерство, а не через регулятивний мандат. Цей підхід дозволяє компаніям зберігати гнучкість у проведенні внутрішньої оцінки безпеки, дотримуючись узгоджених стандартів і беручи участь у скоординованих урядом процесах оцінювання. Добровільна структура також заохочує компанії виходити за рамки мінімальних вимог, сприяючи розвитку культури розвитку безпеки в приватному секторі.
Ці угоди є продовженням прагматичного підходу адміністрації Байдена до управління штучним інтелектом, який намагався збалансувати потребу в нагляді за безпекою з бажанням зберегти американську конкурентоспроможність у секторі штучного інтелекту, який швидко розвивається. Федеральні чиновники визнали, що надмірно суворі правила можуть сповільнити інновації та поступитися лідерством у цій критично важливій технологічній сфері міжнародним конкурентам. Рамка добровільного тестування досягає золотої середини, забезпечуючи базові стандарти безпеки без накладення обтяжливого регуляторного тягаря, який може завдати шкоди американським компаніям.
Протоколи тестування спеціально вирішують проблеми, які виникли, коли великі мовні моделі та інші передові системи штучного інтелекту стали більш потужними та широко розгорнутими. Випадки модельних галюцинацій, упереджені результати та потенційні вразливості системи безпеки спонукали як уряд, так і промисловість серйозніше ставитися до безпеки. Ці угоди про тестування гарантують, що такі проблеми будуть виявлені та вирішені до того, як моделі будуть оприлюднені для громадськості або інтегровані в критично важливі програми в охороні здоров’я, фінансах та уряді.
Міжнародна конкуренція в розробці штучного інтелекту значно посилилася, і країни, включаючи Китай, Європейський Союз і Великобританію, розробляють власні системи управління штучним інтелектом. Підхід Сполучених Штатів до добровільного тестування спрямований на збереження конкурентної переваги країни, водночас утвердившись як відповідальний розпорядник технології ШІ. Демонструючи, що американські компанії можуть відповідально розробляти потужні системи штучного інтелекту, уряд сподівається встановити глобальні стандарти та зберегти американське лідерство в цій трансформаційній технології.
Міністерство торгівлі планує оприлюднити результати цих процесів перевірки безпеки, але обережно, щоб уникнути розголошення інформації, яка може поставити під загрозу безпеку чи власні системи. Це зобов’язання щодо прозорості служить багатьом цілям: воно зміцнює громадську впевненість у безпеці розгорнутих систем штучного інтелекту, воно надає цінні дані порівняльного аналізу, які можуть сприяти покращенню в усій галузі, і воно демонструє зобов’язання уряду здійснювати нагляд, поважаючи законні інтереси бізнесу. Публікація зведених результатів і висновків оцінок безпеки може допомогти встановити найкращі практики в галузі.
Заглядаючи вперед, уряд очікує, що ці угоди щодо тестування розвиватимуться в міру розвитку штучних технологій і появи нових ризиків. Структура розроблена з достатньою гнучкістю, щоб адаптувати нові методології тестування та вирішувати нові проблеми, які не передбачалися під час офіційного оформлення початкових угод. Цей адаптивний підхід визнає, що безпека штучного інтелекту є постійним процесом, а не одноразовою перевіркою відповідності, що вимагає постійної пильності та коригування в міру зміни технологічного ландшафту.
Участь цих трьох великих компаній у розширеній програмі тестування безпеки надсилає потужний сигнал ширшій індустрії штучного інтелекту про важливість відповідальних методів розробки. Очікується, що інші компанії, які розробляють передові системи штучного інтелекту, зіткнуться з подібним тиском щодо участі в державних оцінках безпеки або розробки еквівалентних внутрішніх програм безпеки. Цей ефект тиску з боку колег може сприяти широкому впровадженню суворих методів безпеки в індустрії штучного інтелекту, навіть серед компаній, офіційно не зв’язаних державними угодами.
Федеральні чиновники підкреслили, що ці угоди про тестування є лише одним із компонентів ширшої стратегії управління ризиками ШІ та забезпечення того, щоб технологія приносила користь суспільству, мінімізуючи потенційну шкоду. Додаткові зусилля включають фінансування досліджень безпеки ШІ, підтримку розробки технічних стандартів безпеки та постійний діалог із зацікавленими сторонами галузі щодо нових проблем. Комплексний підхід визнає, що жодне окреме втручання не може повністю вирішити складні проблеми, які постають передовими системами ШІ.
Оскільки штучний інтелект продовжує все глибше впроваджуватися в американське суспільство та світову економіку, важливість надійних систем безпеки неможливо переоцінити. Ці нові угоди про тестування між Міністерством торгівлі та провідними компаніями штучного інтелекту є значним кроком вперед у забезпеченні того, що потужні системи штучного інтелекту розробляються відповідально та безпечно розгортаються. Підтримуючи відкриті лінії зв’язку між урядом і промисловістю, одночасно встановлюючи чіткі стандарти безпеки, Сполучені Штати працюють над тим, щоб реалізувати величезний потенціал штучного інтелекту, одночасно захищаючи від його ризиків.
Джерело: BBC News


