США запускают программу испытаний безопасности для гигантов искусственного интеллекта

Министерство торговли сотрудничает с Google, Microsoft и xAI для оценки безопасности новых моделей искусственного интеллекта, основанных на структурах администрирования Байдена.
Правительство США объявило о новой важной инициативе по оценке безопасности передовых моделей искусственного интеллекта, разработанных ведущими технологическими компаниями. В соответствии с недавно заключенными соглашениями между Министерством торговли и крупными разработчиками ИИ, включая Google, Microsoft и xAI, федеральное правительство проведет комплексные протоколы испытаний на безопасность систем ИИ следующего поколения. Эти механизмы представляют собой продолжение и расширение механизмов надзора, которые были первоначально созданы во время правления предыдущей администрации.
Система тестирования основана непосредственно на основополагающих соглашениях, достигнутых при администрации Байдена, которые стремились установить базовые стандарты безопасности для разработки моделей ИИ. Вместо того, чтобы демонтировать эти структуры, нынешняя администрация решила усовершенствовать и расширить их в рамках своей более широкой программы технологической политики. Этот подход отражает растущее признание обеими партиями того, что некоторый уровень государственного надзора может потребоваться для обеспечения ответственной разработки и безопасного развертывания мощных систем искусственного интеллекта в важнейших секторах экономики.
В первые недели своего пребывания в должности президент США Дональд Трамп подписал ряд указов, призванных сформировать подход его администрации к управлению искусственным интеллектом. Эти приказы в совокупности легли в основу того, что чиновники назвали «Планом действий по искусственному интеллекту», инициативой, которую представители администрации Трампа охарактеризовали как направленную на «снижение нормативного бремени» при сохранении необходимого контроля за безопасностью. В плане особое внимание уделяется устранению ненужных бюрократических препятствий, которые могут помешать инновациям, при сохранении целевого участия правительства в оценке наиболее важных проблем безопасности.
Роль Министерства торговли в этом процессе надзора становится все более важной в федеральной реализации политики в области искусственного интеллекта. Департамент выступает в качестве основного федерального органа, ответственного за содействие заключению соглашений об испытаниях безопасности и обеспечение соответствия участвующих компаний установленным критериям. Представители Министерства торговли заявили, что эти протоколы тестирования будут направлены на оценку того, представляют ли передовые модели искусственного интеллекта потенциальные риски в таких областях, как кибербезопасность, биологические исследования и других чувствительных областях, где неправильное использование может иметь серьезные последствия.
Google, Microsoft и xAI представляют трех наиболее известных разработчиков больших языковых моделей и других передовых систем искусственного интеллекта, разрабатываемых в настоящее время в США. Подразделение Google по исследованию искусственного интеллекта разработало такие модели, как Gemini, а Microsoft вложила значительные средства в партнерские отношения с OpenAI и разработала собственные возможности искусственного интеллекта. xAI, новое предприятие Илона Маска в сфере искусственного интеллекта, привлекло внимание благодаря быстрой разработке конкурентоспособных моделей больших языков. Каждая из этих компаний использует разные подходы, архитектуры и философии безопасности в процессах разработки ИИ.
Добровольный характер этих соглашений является определяющей характеристикой нынешнего подхода к регулированию. Вместо того, чтобы навязывать обязательные правительственные требования посредством законодательства или формального регулирования, федеральные чиновники согласовали эти механизмы тестирования путем прямого взаимодействия с самими компаниями. Такой подход соответствует заявленному администрацией Трампа предпочтению механизмов управления под руководством отрасли, дополненных государственным надзором, а не нисходящим нормативным мандатам, которые, по мнению чиновников, могут подавить инновации.
Конкретные методологии тестирования безопасности, используемые в рамках этих соглашений, будут изучать, как модели ИИ реагируют на подсказки противника, попытки обойти правила безопасности и другие потенциальные сценарии неправильного использования. Оценщики оценят, можно ли манипулировать моделями для создания вредоносного контента или оказания помощи в опасных действиях. Эти тесты представляют собой попытку выявить уязвимости в системах искусственного интеллекта до того, как они станут широко распространены и доступны широкой публике или потенциально злоумышленникам.
Преемственность структуры администрации Байдена предполагает, что некоторые основные принципы государственного надзора получили поддержку обеих партий. Предыдущая администрация придерживалась более мягкого подхода к регулированию, основанного на соглашениях о добровольных испытаниях и разработке отраслевых стандартов, а не на предписывающих правилах. Эта система оказалась более приемлемой для технологических компаний, чем более агрессивные нормативные предложения, распространенные в Конгрессе, но при этом сохранялось значимое участие правительства в процессах оценки безопасности.
Сроки заключения этих соглашений отражают сохраняющуюся напряженность между продвижением инноваций в области ИИ и решением законных проблем безопасности. Технологический сектор постоянно предупреждает, что чрезмерно обременительные правила могут привести к развитию ИИ за рубежом в странах с менее строгими требованиями безопасности или более слабыми механизмами надзора. Федеральные чиновники попытались сбалансировать эти опасения, сохраняя контроль за безопасностью и сводя к минимуму бюрократические трения при разработке и внедрении новых возможностей искусственного интеллекта.
Отраслевые обозреватели отмечают, что такой подход к регулированию может повлиять на то, как другие страны структурируют свои собственные системы управления ИИ. Поскольку Соединенные Штаты, Европейский Союз и другие крупные экономики разрабатывают разные подходы к надзору за ИИ, компаниям, работающим на международном уровне, приходится ориентироваться в нескольких режимах регулирования. Акцент Министерства торговли на сохранении инновационного потенциала при сохранении контроля за безопасностью потенциально может послужить моделью для международной координации стандартов управления ИИ.
Процесс Оценки безопасности ИИ, скорее всего, будет включать в себя учения «красной команды», в ходе которых независимые оценщики попытаются выявить слабые места в механизмах безопасности систем ИИ. Эти упражнения моделируют, как злоумышленники могут попытаться использовать уязвимости, помогая разработчикам понять, какие риски требуют дополнительного снижения. Результаты этих оценок послужат основой как для внутренней практики компании, так и для понимания на федеральном уровне текущего состояния безопасности ИИ в отрасли.
В дальнейшем эти соглашения о тестировании могут расшириться, включив в них дополнительных разработчиков ИИ и охватив новые категории моделей и приложений ИИ. Поскольку технологии искусственного интеллекта продолжают быстро развиваться и новые компании выходят в область передовых разработок искусственного интеллекта, Министерству торговли, возможно, придется скорректировать свои механизмы надзора. Нынешняя структура, похоже, разработана с учетом гибкости, позволяющей учитывать технологические изменения и возникающие проблемы безопасности, которые, возможно, еще не до конца понятны.
Заинтересованные стороны всего политического спектра выразили разные точки зрения на соответствующий уровень и характер государственного надзора за ИИ. В то время как некоторые сторонники утверждают, что необходимы более строгие обязательные правила для предотвращения вредного развития ИИ, другие утверждают, что добровольные подходы сохраняют инновационные стимулы, которые сделали Соединенные Штаты мировым лидером в исследованиях ИИ. Соглашения Министерства торговли представляют собой попытку решить эту проблему, сохранив участие правительства и одновременно уважая предпочтения отрасли в отношении совместных, а не конфронтационных подходов к управлению.
Источник: BBC News


