Білий дім досліджує нову модель регулювання ШІ

Білий дім розробляє більш суворі механізми нагляду за моделями штучного інтелекту, включаючи потенційний процес перевірки перед оприлюдненням.
Білий дім активно вивчає більш комплексний регуляторний підхід до розробки штучного інтелекту, а офіційні особи розглядають впровадження суворіших правил щодо моделі штучного інтелекту, які можуть докорінно змінити спосіб виведення нових систем на ринок. Згідно з джерелами, знайомими з поточними обговореннями в адміністрації, робочу групу, якій доручено наглядати за штучним інтелектом, було створено для оцінки нових моделей до того, як вони отримають дозвіл громадськості, що означає значну зміну в підході уряду до управління штучним інтелектом.
Ця потенційна нормативно-правова база є одним із найбільш суттєвих зусиль федерального уряду щодо встановлення офіційних процедур перевірки моделі штучного інтелекту та механізмів нагляду. Замість того, щоб дозволяти розробникам випускати моделі без контролю з боку уряду, запропонована система створить структурований процес перевірки, призначений для виявлення потенційних ризиків і забезпечення відповідності новим стандартам безпеки. Цей крок стався в той момент, коли індустрія штучного інтелекту пережила вибухове зростання, коли численні компанії змагаються за розробку та впровадження дедалі потужніших моделей.
Чиновники адміністрації висловлюють зростаючу стурбованість щодо швидкого поширення передових систем штучного інтелекту без відповідних гарантій або заходів підзвітності. Запропонована система регулювання штучного інтелекту слугуватиме критичною контрольною точкою в процесі розробки, дозволяючи експертам оцінювати, чи створюють нові моделі ризики, пов’язані з дезінформацією, упередженістю, вразливістю системи безпеки чи іншою потенційною шкодою, перш ніж вони охоплять широку громадськість. Цей превентивний підхід суттєво відрізняється від реактивних регуляторних моделей, які історично керували розвитком технологій.
Очікується, що робоча група, зосереджена на управлінні штучним інтелектом, включатиме представників різних державних установ, зокрема Управління наукової та технологічної політики, Міністерства торгівлі та інших відповідних департаментів, які мають досвід у питаннях технологій і політики. Цим посадовцям доручено розробити детальні критерії, які керуватимуть процесом перевірки, визначаючи, які моделі потребують перегляду, і встановлювати часові рамки для оцінювання. Група також вивчає успішні моделі регулювання з інших галузей, щоб визначити найкращі практики, які можна адаптувати для нагляду за допомогою штучного інтелекту.
Основні аспекти нормативно-правової бази включають встановлення чітких порогових значень, коли перегляд стає обов’язковим, визначення конкретних технічних стандартів і стандартів безпеки, яким мають відповідати моделі, і визначення того, як процес перевірки вплине на терміни розробки та інновації. Чиновники також стикаються з проблемою створення нормативних актів, які були б достатньо суворими, щоб захистити громадськість, залишаючись при цьому достатньо гнучкими, щоб відповідати швидким темпам технологічного прогресу та конкуренції в секторі технологій штучного інтелекту.
Ця пропозиція викликала значне обговорення в технологічних колах, де деякі лідери галузі висловили обережну підтримку розумним нормам, тоді як інші стурбовані потенційно обтяжливими вимогами дотримання. Компанії, які розробляють великі мовні моделі та інші передові системи штучного інтелекту, зазначили, що вони готові співпрацювати з регуляторами для встановлення прийнятних стандартів за умови, що такі правила не пригнічують інновації та не створюють несправедливих конкурентних переваг для відомих гравців над стартапами, що розвиваються.
Міжнародні міркування також значною мірою впливають на регулятивне мислення адміністрації, оскільки інші країни, включаючи Європейський Союз, уже почали впроваджувати власні заходи нагляду за штучним інтелектом. Глобальне регулювання штучного інтелекту швидко розвивається, і політики визнають, що неузгоджені підходи в різних юрисдикціях можуть створити фрагментовані стандарти, які обтяжують багатонаціональні компанії. Білий дім дбає про збереження американської конкурентоспроможності у сфері штучного інтелекту, водночас створюючи прецеденти відповідального управління.
Експерти з безпеки та політики штучного інтелекту в основному вітали підвищену увагу уряду до механізмів нагляду, стверджуючи, що проактивне регулювання краще, ніж реактивне управління кризою. Вони вказують на попередні технологічні цикли, коли нормативна база відставала від інновацій, що призводило до непередбачуваних наслідків і шкоди суспільству. Встановивши процедури перевірки на початку циклу розробки штучного інтелекту, уряд теоретично міг би запобігти проблемам до того, як вони переростуть у більші суспільні проблеми.
Терміни впровадження такої нормативної бази залишаються невизначеними, оскільки робоча група Білого дому продовжує свої обговорення та шукає внеску зацікавлених сторін у технологічній галузі, наукових установ та організацій громадянського суспільства. Попередні обговорення свідчать про те, що для повної розробки будь-якого офіційного механізму регулювання, ймовірно, знадобляться місяці, хоча деякі тимчасові вказівки чи добровільні стандарти потенційно можуть бути встановлені раніше для вирішення безпосередніх проблем.
Інтерес громадськості до підзвітності та безпеки моделі штучного інтелекту посилився після кількох резонансних інцидентів і занепокоєння дослідників ШІ щодо потенційних ризиків, пов’язаних із дедалі потужнішими системами. Члени Конгресу від обох партій висловили зацікавленість у створенні базової нормативної бази, що вказує на потенційну двопартійну підтримку певної форми державного нагляду. Ця конвергенція дій виконавчої влади та інтересу Конгресу свідчить про те, що значуще регулювання ШІ може стати справжнім пріоритетом політики.
Запропонований регуляторний підхід, ймовірно, розрізнятиме різні типи систем штучного інтелекту на основі їх потенційного впливу та профілю ризику. Системи з ширшими суспільними наслідками або вищим потенціалом ризику, імовірно, зіткнуться з більш суворими вимогами перевірки, тоді як менш чутливі програми можуть вимагати лише мінімального контролю. Цей багаторівневий підхід може допомогти регуляторам зосередити ресурси на сферах, що викликають найбільше занепокоєння, уникаючи при цьому надмірного бюрократичного тягаря на інновації з меншим ризиком.
У перспективі створення функціонального механізму перевірки штучного інтелекту може стати основою для більш комплексних структур управління, оскільки штучний інтелект продовжує розвиватися та глибше інтегруватися в такі важливі сектори, як охорона здоров’я, фінанси та національна безпека. Нинішня ініціатива Білого дому може зрештою стати основоположним кроком у тому, що може стати більш складною регуляторною екосистемою, оскільки суспільство бореться з глибокими наслідками розробки та розгортання штучного інтелекту.
Джерело: Engadget


