Big Tech відкриває моделі AI для розгляду урядом США

Google, Microsoft і xAI погоджуються проводити перед розгортанням оцінки передових моделей штучного інтелекту урядовими установами США для оцінки національної безпеки.
Здійснюючи суттєвий крок до регуляторного нагляду за розробкою штучного інтелекту, Google DeepMind, Microsoft і xAI Ілона Маска взяли на себе зобов’язання дозволити уряду Сполучених Штатів проводити комплексні перевірки їхніх найновіших моделей штучного інтелекту, перш ніж вони стануть доступними для широкого загалу. Оголошення, зроблене у вівторок Центром стандартів та інновацій штучного інтелекту Міністерства торгівлі США (CAISI), демонструє розширення прихильності до безпеки штучного інтелекту та міркувань національної безпеки в галузі передових технологій штучного інтелекту, що швидко розвивається.
Згідно з офіційною заявою CAISI, партнерство буде зосереджено на проведенні «оцінок перед розгортанням і цільових досліджень для кращої оцінки передових можливостей ШІ». Цей спільний підхід між великими технологічними компаніями та федеральними агентствами підкреслює зростаюче визнання того, що передові системи ШІ вимагають ретельної оцінки перед широким розгортанням. Ініціатива спрямована на те, щоб збалансувати інновації з проблемами безпеки, гарантуючи, що потужні технології штучного інтелекту проходять ретельну оцінку потенційних ризиків, перш ніж вони стануть доступними для мільйонів користувачів у всьому світі.
CAISI, який працює під керівництвом Міністерства торгівлі США, бере активну участь в оцінці моделі штучного інтелекту з моменту встановлення аналогічних партнерських відносин з OpenAI і Anthropic у 2024 році. Центр уже завершив вражаючі 40 перевірок різних моделей штучного інтелекту під час цього початкового етапу співпраці з цими організаціями. Ці огляди дали цінну інформацію про можливості та потенційні вразливості передових систем штучного інтелекту, створивши важливі прецеденти того, як державні установи можуть ефективно оцінювати передові технології штучного інтелекту.
<зображення src="https://platform.theverge.com/wp-content/uploads/sites/2/chorus/uploads/chorus_asset/file/25263345/STK432_Government_A_CVirginia.jpg?quality=90&strip=all&crop=0%2C0%2C100%2C100&w=2400" alt="Урядові чиновники США та лідери індустрії штучного інтелекту під час зустрічі для обговорення безпеки та регулювання штучного інтелекту" />Розширення нагляду CAISI за допомогою Google DeepMind, Microsoft і xAI означає розширення участі уряду в оцінці моделі ШІ. Згідно з повідомленням Міністерства торгівлі, OpenAI і Anthropic «переглянули свої існуючі партнерства з центром, щоб краще відповідати пріоритетам адміністрації президента Дональда Трампа». Цей перегляд свідчить про те, що державний підхід до нагляду за штучним інтелектом продовжує розвиватися з оновленими критеріями та методологіями оцінювання, які відображають поточні пріоритети політики та проблеми національної безпеки.
Участь цих технологічних гігантів свідчить про важливі зміни в підходах галузі до дотримання нормативних вимог і прозорості уряду. Системи Frontier AI, які представляють найновіші можливості штучного інтелекту, стали все частіше вивчати політики та експерти з безпеки, стурбовані потенційними ризиками. Добровільно погоджуючись на державну перевірку перед публічним розгортанням, ці компанії намагаються усунути занепокоєння щодо неконтрольованого розвитку ШІ, зберігаючи при цьому свої конкурентні позиції в технологічному секторі, що швидко розвивається.
Google DeepMind, відомий розробкою передових систем штучного інтелекту, таких як AlphaGo та Gemini, залучає значні ресурси та досвід для цієї спільної роботи. Прихильність підрозділу до оцінки перед розгортанням відображає ширшу стратегію компанії позиціонувати себе як відповідального гравця у сфері ШІ. Корпорація Майкрософт, інвестуючи значні інвестиції в технологію ШІ та співпрацюючи з OpenAI, також підкреслила важливість міркувань безпеки у своїй дорожній карті розвитку ШІ. Ці зобов’язання демонструють, що великі технологічні корпорації все більше визнають необхідність державного нагляду для забезпечення відповідального розвитку технологій ШІ.
Участь xAI у цьому процесі урядової перевірки заслуговує на особливу увагу, враховуючи те, що компанія відносно нещодавно стала головним гравцем у сфері ШІ. Заснована Ілоном Маском, xAI розробляє передові мовні моделі та системи міркування, і її включення в програму оцінювання CAISI вказує на те, що нові компанії в цьому просторі також використовують механізми державного контролю. Така широка участь компаній різного розміру та рівня зрілості свідчить про те, що структури управління ШІ стають усе більш стандартизованими в галузі.
Процес оцінки перед розгортанням, який проводить CAISI, передбачає кілька аспектів оцінювання, зокрема оцінку можливостей моделі, виявлення потенційних проблем із безпекою та аналіз того, як системи ШІ можуть працювати в різних сценаріях реального світу. Цільові дослідницькі компоненти партнерства дозволяють державним оцінювачам глибше занурюватися в конкретні проблемні питання, наприклад, як моделі обробляють делікатні теми або чи демонструють вони упередження, які можуть мати наслідки для суспільства. Цей багатогранний підхід до оцінювання являє собою витончене розуміння складнощів, пов’язаних з оцінюванням передових систем ШІ.
Розширення державних програм перевірки штучного інтелекту відображає ширші дискусії в адміністраціях Байдена і Трампа про те, як керувати швидким розвитком технології штучного інтелекту. Політики та експерти з національної безпеки висловлюють занепокоєння з приводу розгортання систем штучного інтелекту без належного тестування безпеки, особливо з огляду на можливість впливу цих систем на критичну інфраструктуру, системи національної оборони та чутливі урядові операції. Зобов’язання Google, Microsoft і xAI дозволити перевірку урядом перед розгортанням безпосередньо вирішує деякі з цих проблем.
Ця співпраця також створює важливі прецеденти того, як добровільна галузева співпраця може доповнювати нормативні рамки. Замість того, щоб запроваджувати суворі мандати, які могли б пригнічувати інновації чи стимулювати розвиток за кордоном, уряд дотримувався партнерського підходу, який заохочує компанії до саморегулювання, зберігаючи при цьому прозорість із федеральними агентствами. Цей збалансований підхід підтримали прихильники технологічної індустрії, які стверджують, що відповідальні інновації потребують як належного нагляду, так і достатньої гнучкості для компаній, щоб розвивати нові можливості.
У майбутньому успіх цих програм оцінки може вплинути на те, як інші країни підходять до управління та регулювання ШІ. Зусилля уряду Сполучених Штатів збалансувати інновації та безпеку через партнерство з провідними компаніями штучного інтелекту можуть послужити моделлю для міжнародної співпраці щодо стандартів штучного інтелекту та методології оцінки. Оскільки штучний інтелект продовжує стрімко розвиватися, створення ефективних механізмів оцінки та нагляду, ймовірно, ставатиме дедалі важливішим для національної безпеки та довіри суспільства до цих трансформаційних технологій.
Джерело: The Verge

