Адміністратор Трампа може змінити напрямок політики AI

Під керівництвом Девіда Сакса Білий дім може переглянути свій підхід до регулювання штучного інтелекту. Вивчіть можливі зміни політики.
Схоже, що позиція адміністрації Трампа щодо регулювання штучного інтелекту зазнає серйозної перевірки та потенційної переоцінки. Наростають питання щодо того, чи продовжуватиме Білий дім підтримувати підхід laissez-faire до штучного інтелекту, який був характерним для його ранніх політичних дискусій, зокрема під керівництвом Девіда Сакса, який був царем ШІ в адміністрації. Ця ситуація свідчить про те, що хиткий баланс між інноваціями та наглядом у технологічному секторі може змінитися.
Девід Сакс, видатний підприємець із Кремнієвої долини та венчурний капіталіст, привніс значну довіру до своєї ролі радника адміністрації щодо політики штучного інтелекту. Його досвід у сфері технологій і бізнесу зробив його впливовим голосом у формуванні початкового напрямку політики регулювання ШІ в федеральному уряді. Сакс постійно виступав за мінімальне державне втручання, вважаючи, що ринкові сили та галузеве саморегулювання сприятимуть відповідальній розробці технологій штучного інтелекту ефективніше, ніж жорстке законодавство.
Філософія початкового підходу ґрунтувалася на класичних принципах вільного ринку. Прихильники стверджували, що надмірне регулювання може придушити інновації, підштовхнути розвиток за кордоном і завадити американським компаніям зберегти свою конкурентну перевагу в глобальному ландшафті штучного інтелекту. Ця перспектива узгоджується з ширшими настроями технологічної галузі, де багато керівників побоюються, що передчасні або погано розроблені правила можуть перешкодити прогресу в галузі, де швидкість і гнучкість вважаються конкурентними перевагами.
Однак останні події свідчать про те, що адміністрація, можливо, переглядає цей суто дерегуляційний підхід. Численні зацікавлені сторони, включно з прихильниками безпеки штучного інтелекту, представниками Конгресу та галузевими експертами, висловлювали занепокоєння щодо потенційних ризиків повного обмеження регуляторного середовища. Дебати зосереджуються на тому, чи переваги необмежених інновацій переважують законні побоювання щодо упередженості алгоритмів, конфіденційності даних, наслідків для національної безпеки та ширшого суспільного впливу розгортання штучного інтелекту.
Тиск щодо перегляду політики надходить одночасно з кількох сторін. Організації, що займаються захистом громадянських прав, висловлюють занепокоєння тим, що системи штучного інтелекту, навчені на основі упереджених даних, можуть увічнити дискримінацію при наймі, кредитуванні, кримінальному правосудді та інших критичних сферах. Співробітники національної безпеки наголосили на важливості державного нагляду, щоб запобігти ворожим націям отримати технологічні переваги завдяки розробці ШІ. Крім того, прихильники захисту прав споживачів вказують на випадки, коли алгоритмічне прийняття рішень завдало явної шкоди без чітких механізмів відповідальності.
У самому технологічному секторі зростає консенсус щодо того, що якась форма управління штучним інтелектом може знадобитися для підтримки суспільної довіри та запобігання катастрофічним ризикам. Провідні дослідники штучного інтелекту та деякі великі технологічні компанії обережно підтримали необхідність продуманого регулювання, хоча вони продовжують наголошувати на тому, що такі правила мають базуватися на фактичних даних і не бути надто обмежувальними. Цей консенсус, що формується в самій галузі, може впливати на розрахунок адміністрації щодо стратегії регулювання.
Міжнародний контекст також відіграє вирішальну роль у формуванні цих дискусій. Європейський Союз уже запровадив комплексне регулювання штучного інтелекту через Закон про штучний інтелект, встановлюючи суворі вимоги до систем ШІ високого ризику. Китай проводить агресивну розробку штучного інтелекту за підтримки уряду та скоординованого стратегічного контролю. Сполучені Штати стикаються з тиском, щоб розробити узгоджений регуляторний підхід, який не відстає в технологічних можливостях і не дозволяє їхнім компаніям працювати абсолютно нерегульовано, що може завдати шкоди довірі до США та конкурентоспроможності в усьому світі.
Звіти різних державних установ свідчать про те, що останнім часом міжвідомчі дискусії щодо політики штучного інтелекту активізувалися. Міністерство торгівлі, Національний інститут стандартів і технологій та інші федеральні органи постійно обговорюють, як можуть виглядати ефективні структури управління ШІ. Схоже, що ці дискусії досліджують золоту середину між абсолютно нерегульованим розвитком і типом нормативних актів, які можуть перешкоджати інноваціям і науковому прогресу.
Потенційна зміна адміністративної посади відображає зріле розуміння суспільних наслідків штучного інтелекту. Ранній ентузіазм щодо революційного потенціалу штучного інтелекту був пом’якшений зростаючим усвідомленням його ризиків і проблем. Інциденти, пов’язані з прийняттям упереджених рішень системами штучного інтелекту, поширенням дезінформації або розгортанням у програмах стеження, підвищили свідомість громадськості про необхідність продуманих механізмів нагляду.
Міркування конфіденційності та безпеки даних стали особливо важливими факторами перегляду політики. Оскільки програми штучного інтелекту дедалі частіше обробляють конфіденційну особисту інформацію, питання про захист даних, згоду та прозорість алгоритмів перемістилися з академічних дискусій у основні політичні дебати. Адміністрація повинна збалансувати свою перевагу легкому регулюванню з практичною необхідністю забезпечити дотримання фундаментальних прав систем штучного інтелекту та захист громадян від шкоди.
Голоси галузі залишаються дещо розбіжними щодо оптимального регуляторного шляху. У той час як деякі компанії вітають чіткі, узгоджені федеральні стандарти, які можуть запобігти набору суперечливих державних норм, інші стурбовані тим, що передчасні федеральні вимоги можуть заблокувати застарілі підходи. Ця напруга між прагненням до нормативної ясності та уникненням регуляторного захоплення є одним із головних викликів у розробці ефективних стратегічних структур щодо ШІ.
Питання про те, чи кардинально змінить адміністрація Трампа свій підхід до політики ШІ, залишається частково відкритим. Будь-який відхід від чистої дерегуляції не обов’язково буде означати повний розворот, а радше переналагодження в бік більш прагматичних структур нагляду. Адміністрація, схоже, бореться з тим, як зберегти свою відданість інноваціям, визнаючи при цьому законні побоювання щодо відповідальної розробки штучного інтелекту та необхідності базових гарантій.
У майбутньому підхід адміністрації до регулювання штучного інтелекту, ймовірно, стане чіткішим, коли вона розробить більш детальні пропозиції щодо політики. Будь-які нові рамки повинні вирішувати питання про те, як встановити значущий нагляд без створення непотрібних перешкод для розвитку. Найближчі місяці будуть критично важливими для визначення того, чи філософія laissez-faire Девіда Сакса й надалі домінуватиме в мисленні адміністрації, чи більш тонкий підхід набуде популярності серед політиків.
Ширше значення цієї потенційної зміни політики виходить за межі безпосередніх регуляторних механізмів. Те, як Сполучені Штати підходять до управління штучним інтелектом, вплине на моделі технологічного розвитку, міжнародну конкурентоспроможність і суспільну довіру як до уряду, так і до технологічної галузі. Остаточні рішення адміністрації щодо цього питання формуватимуть не лише безпосередню галузеву практику, але й довгострокові рамки для управління новими технологіями, значення яких і вплив на суспільство зростатимуть протягом десятиліть.
Джерело: The New York Times


