Администратор Трампа может изменить направление политики в области искусственного интеллекта

Белый дом может пересмотреть свой подход к регулированию искусственного интеллекта под руководством Дэвида Сакса. Изучите потенциальные изменения политики.
Позиция администрации Трампа в отношении регулирования искусственного интеллекта, похоже, подвергается серьезному анализу и потенциальной переоценке. Возникают вопросы о том, будет ли Белый дом продолжать придерживаться подхода невмешательства в искусственный интеллект, который характеризовал его ранние политические дискуссии, особенно под руководством Дэвида Сакса, который был в администрации царем искусственного интеллекта. Эта развивающаяся ситуация сигнализирует о том, что хрупкий баланс между инновациями и надзором в технологическом секторе может смещаться.
Дэвид Сакс, известный предприниматель и венчурный капиталист Кремниевой долины, завоевал значительный авторитет благодаря своей роли советника администрации по политике в области искусственного интеллекта. Благодаря его опыту в области технологий и бизнеса он сыграл влиятельную роль в формировании начального направления политики регулирования ИИ в федеральном правительстве. Сакс последовательно выступал за минимальное вмешательство государства, полагая, что рыночные силы и саморегулирование отрасли будут способствовать ответственному развитию технологий искусственного интеллекта более эффективно, чем жесткое законодательство.
Философия, лежащая в основе первоначального подхода, была основана на классических принципах свободного рынка. Сторонники утверждали, что чрезмерное регулирование может задушить инновации, подтолкнуть развитие за рубежом и помешать американским компаниям сохранить свои конкурентные преимущества на глобальном рынке искусственного интеллекта. Эта точка зрения соответствует более широким настроениям в технологической отрасли, где многие руководители опасаются, что преждевременное или плохо разработанное регулирование может помешать прогрессу в области, где скорость и гибкость считаются конкурентными преимуществами.
Однако недавние события позволяют предположить, что администрация, возможно, пересматривает этот чисто дерегулирующий подход. Многие заинтересованные стороны, в том числе сторонники безопасности ИИ, представители Конгресса и отраслевые эксперты, выражают обеспокоенность по поводу потенциальных рисков полностью невмешательства в нормативную среду. Спор ведется о том, перевешивают ли преимущества ничем не ограниченных инноваций законные опасения по поводу алгоритмической предвзятости, конфиденциальности данных, последствий для национальной безопасности и более широких социальных последствий внедрения искусственного интеллекта.
Давление к пересмотру политики исходит одновременно с нескольких направлений. Организации по защите гражданских прав выразили обеспокоенность тем, что системы искусственного интеллекта, обученные на основе предвзятых данных, могут увековечить дискриминацию при найме на работу, кредитовании, уголовном правосудии и других важных областях. Представители национальной безопасности подчеркнули важность государственного надзора, чтобы не дать враждебным странам получить технологические преимущества посредством разработки ИИ. Кроме того, защитники прав потребителей указывают на случаи, когда алгоритмическое принятие решений наносило очевидный вред без четких механизмов ответственности.
В самом технологическом секторе растет консенсус в отношении того, что некая форма управления ИИ может быть необходима для поддержания общественного доверия и предотвращения катастрофических рисков. Ведущие исследователи искусственного интеллекта и некоторые крупные технологические компании осторожно поддерживают необходимость продуманного регулирования, хотя они продолжают подчеркивать, что такие правила должны быть основаны на фактических данных и не быть чрезмерно ограничительными. Этот формирующийся консенсус внутри самой отрасли может повлиять на расчеты администрации относительно стратегии регулирования.
Международный контекст также играет решающую роль в формировании этих дискуссий. Европейский Союз уже ввел комплексное регулирование ИИ посредством Закона об ИИ, установив строгие требования к системам ИИ высокого риска. Китай проводит агрессивное развитие искусственного интеллекта при государственной поддержке и скоординированном стратегическом надзоре. Соединенные Штаты сталкиваются с необходимостью разработать последовательный подход к регулированию, который не отставал бы в технологическом потенциале и не позволял бы их компаниям работать совершенно нерегулируемым образом, что могло бы подорвать доверие к Америке и конкурентоспособность во всем мире.
Отчеты различных правительственных учреждений свидетельствуют о том, что межведомственные дискуссии о политике в области ИИ в последнее время активизировались. Министерство торговли, Национальный институт стандартов и технологий и другие федеральные органы постоянно обсуждают, как могут выглядеть эффективные структуры управления ИИ. Похоже, что эти дискуссии исследуют золотую середину между полностью нерегулируемым развитием и предписывающим регулированием, которое может препятствовать инновациям и научному прогрессу.
Потенциальное изменение позиции администрации отражает более глубокое понимание социальных последствий искусственного интеллекта. Ранний энтузиазм по поводу революционного потенциала ИИ умерился растущим осознанием его рисков и проблем. Инциденты с участием систем искусственного интеллекта, принимающих предвзятые решения, распространяющих дезинформацию или используемых в приложениях для наблюдения, повысили общественное сознание о необходимости продуманных механизмов надзора.
Соображения конфиденциальности и безопасности данных стали особенно важными факторами пересмотра политики. Поскольку приложения искусственного интеллекта все чаще обрабатывают конфиденциальную личную информацию, вопросы о защите данных, согласии и прозрачности алгоритмов перешли из академических дискуссий в основные политические дебаты. Администрация должна сбалансировать свое предпочтение мягкого регулирования с практической необходимостью гарантировать, что системы ИИ уважают фундаментальные права и защищают граждан от вреда.
Мнения в отрасли по поводу оптимального пути регулирования по-прежнему разделились. В то время как некоторые компании приветствуют четкие, последовательные федеральные стандарты, которые могут предотвратить множество противоречивых государственных правил, другие опасаются, что преждевременные федеральные требования могут заблокировать устаревшие подходы. Это противоречие между стремлением к ясности регулирования и предотвращением контроля со стороны регулирующих органов представляет собой одну из центральных проблем в разработке эффективных основ политики в области ИИ.
Вопрос о том, изменит ли администрация Трампа фундаментально свой подход к политике в области искусственного интеллекта, остается частично открытым. Любой отход от чистого дерегулирования не обязательно будет представлять собой полный разворот, а, скорее, перекалибровку в сторону более прагматичных структур надзора. Администрация, похоже, пытается решить, как сохранить свою приверженность инновациям, признавая при этом законные опасения по поводу ответственной разработки ИИ и необходимости базовых мер безопасности
.В будущем подход администрации к регулированию ИИ, скорее всего, станет более ясным по мере разработки более подробных политических предложений. Любые новые структуры должны будут решать вопрос о том, как установить значимый надзор, не создавая ненужных барьеров на пути развития. Ближайшие месяцы будут иметь решающее значение для определения того, продолжит ли философия невмешательства Дэвида Сакса доминировать в мышлении администрации или же более тонкий подход получит поддержку среди политиков.
Более широкое значение этого потенциального политического изменения выходит за рамки непосредственных механизмов регулирования. То, как Соединенные Штаты будут решать вопросы управления ИИ, повлияет на модели технологического развития, международную конкурентоспособность и общественное доверие как к правительству, так и к технологической отрасли. Окончательные решения администрации по этому вопросу будут формировать не только непосредственную отраслевую практику, но и долгосрочные рамки управления новыми технологиями, важность и влияние которых на общество будут расти в ближайшие десятилетия.
Источник: The New York Times


