Белый дом изучает новую систему регулирования модели искусственного интеллекта

Белый дом разрабатывает более строгие механизмы надзора за моделями искусственного интеллекта, включая потенциальный процесс проверки перед их публичной публикацией.
Белый дом активно изучает более комплексный нормативный подход к развитию искусственного интеллекта, при этом чиновники рассматривают возможность введения более строгих правил в отношении моделей искусственного интеллекта, которые могут фундаментально изменить способы вывода новых систем на рынок. По данным источников, знакомых с текущими обсуждениями в администрации, была создана рабочая группа, которой поручен надзор за искусственным интеллектом, для оценки новых моделей до того, как они получат общественное одобрение, что знаменует собой значительный сдвиг в подходе правительства к управлению искусственным интеллектом.
Эта потенциальная нормативно-правовая база представляет собой одну из наиболее существенных попыток федерального правительства создать формальные процедуры проверки моделей ИИ и механизмы надзора. Вместо того, чтобы позволять разработчикам выпускать модели без проверки со стороны правительства, предлагаемая система создаст структурированный процесс проверки, предназначенный для выявления потенциальных рисков и обеспечения соответствия новым стандартам безопасности. Этот шаг связан с бурным ростом индустрии искусственного интеллекта, когда многие компании стремятся разрабатывать и внедрять все более мощные модели.
Чиновники администрации выражают растущую обеспокоенность по поводу быстрого распространения передовых систем искусственного интеллекта без адекватных гарантий или мер подотчетности. Предлагаемая структура регулирования ИИ станет важной контрольной точкой в процессе разработки, позволяя экспертам оценить, несут ли новые модели риски, связанные с дезинформацией, предвзятостью, уязвимостями безопасности или другим потенциальным вредом, прежде чем они дойдут до широкой общественности. Такой упреждающий подход существенно отличается от моделей реактивного регулирования, которые исторически управляли новыми технологиями.
Ожидается, что в рабочую группу по управлению искусственным интеллектом войдут представители различных правительственных учреждений, в том числе Управления научно-технической политики, Министерства торговли и других соответствующих ведомств, обладающих опытом в области технологий и политических вопросов. Этим должностным лицам поручено разработать подробные критерии, которые будут определять процесс проверки, определять, какие модели требуют проверки, и устанавливать сроки для оценки. Группа также изучает успешные модели регулирования из других отраслей, чтобы выявить лучшие практики, которые можно адаптировать для надзора за искусственным интеллектом.
Ключевые аспекты нормативно-правовой базы включают установление четких пороговых значений, когда проверка становится обязательной, определение конкретных технических стандартов и стандартов безопасности, которым должны соответствовать модели, а также определение того, как процесс проверки повлияет на сроки разработки и инновации. Чиновники также сталкиваются с проблемой создания правил, которые были бы достаточно строгими, чтобы защитить общественность, но при этом оставались бы достаточно гибкими, чтобы приспособиться к быстрым темпам технологического прогресса и конкуренции в секторе технологий искусственного интеллекта.
Это предложение вызвало бурную дискуссию в технологических кругах: некоторые лидеры отрасли выразили осторожную поддержку разумных правил, в то время как другие беспокоятся о потенциально обременительных требованиях к соблюдению требований. Компании, разрабатывающие большие языковые модели и другие передовые системы искусственного интеллекта, заявили, что они готовы сотрудничать с регулирующими органами для установления разумных стандартов при условии, что такие правила не подавляют инновации и не создают несправедливых конкурентных преимуществ для признанных игроков перед новыми стартапами.
Международные соображения также в значительной степени влияют на нормативное мышление администрации, поскольку другие страны, включая Европейский Союз, уже начали внедрять свои собственные меры по надзору за искусственным интеллектом. Глобальная ситуация в области регулирования ИИ быстро развивается, и политики признают, что нескоординированные подходы в разных юрисдикциях могут привести к созданию фрагментированных стандартов, которые станут бременем для транснациональных компаний. Белый дом заботится о сохранении конкурентоспособности Америки в области искусственного интеллекта, одновременно создавая прецеденты ответственного управления.
Эксперты в области безопасности и политики искусственного интеллекта в целом приветствовали повышенное внимание правительства к механизмам надзора, утверждая, что упреждающее регулирование предпочтительнее реактивного антикризисного управления. Они указывают на предыдущие технологические циклы, когда нормативно-правовая база отставала от инноваций, что приводило к непредвиденным последствиям и общественному вреду. Внедрив процедуры проверки на ранних этапах цикла разработки ИИ, правительство теоретически могло бы предотвратить проблемы до того, как они перерастут в более серьезные социальные проблемы.
Сроки внедрения такой нормативно-правовой базы остаются неопределенными, поскольку рабочая группа Белого дома продолжает свои обсуждения и ищет мнения заинтересованных сторон из технологической отрасли, научных учреждений и организаций гражданского общества. Предварительные обсуждения показывают, что для полной разработки любого официального механизма регулирования, скорее всего, потребуются месяцы, хотя некоторые временные рекомендации или добровольные стандарты потенциально могут быть установлены раньше для решения неотложных проблем.
Общественный интерес к подотчетности и безопасности моделей ИИ усилился после нескольких громких инцидентов и опасений, высказанных исследователями ИИ по поводу потенциальных рисков, связанных со все более мощными системами. Члены Конгресса от обеих партий выразили заинтересованность в создании базовой нормативной базы, что указывает на потенциальную двухпартийную поддержку той или иной формы государственного надзора. Такое совпадение действий исполнительной власти и интересов Конгресса позволяет предположить, что значимое регулирование ИИ может стать подлинным политическим приоритетом.
Предлагаемый подход к регулированию, скорее всего, будет различать различные типы систем ИИ на основе их потенциального воздействия и профиля риска. Системы с более широкими социальными последствиями или более высоким потенциалом риска, предположительно, столкнутся с более строгими требованиями проверки, в то время как менее чувствительные приложения могут потребовать лишь минимального надзора. Такой многоуровневый подход может помочь регулирующим органам сосредоточить ресурсы на областях, вызывающих наибольшую озабоченность, избегая при этом чрезмерного бюрократического бремени в отношении инноваций с низким уровнем риска.
В перспективе создание функционального механизма проверки ИИ может послужить основой для более комплексных систем управления, поскольку искусственный интеллект продолжает развиваться и все глубже интегрироваться в такие важные секторы, как здравоохранение, финансы и национальная безопасность. Нынешняя инициатива Белого дома может в конечном итоге стать основополагающим шагом на пути к созданию более сложной нормативной экосистемы, поскольку общество сталкивается с глубокими последствиями разработки и внедрения искусственного интеллекта.
Источник: Engadget


