США заключают соглашения о безопасности ИИ с технологическими гигантами

Правительство США объявляет о соглашениях с Google DeepMind, Microsoft и xAI о проверке моделей ИИ перед их публичной публикацией, уделяя особое внимание рискам национальной безопасности.
Правительство США сделало значительный шаг к обеспечению безопасного внедрения передовых технологий искусственного интеллекта, заключив знаковые соглашения с тремя наиболее влиятельными технологическими компаниями мира. Google DeepMind, Microsoft и xAI обязались разрешить федеральным регулирующим органам проводить проверки безопасности своих передовых моделей искусственного интеллекта до того, как эти системы станут общедоступными. Этот совместный подход представляет собой важнейшее пересечение технологических инноваций и вопросов национальной безопасности, создавая прецедент того, как правительство и частный сектор могут работать вместе для смягчения возникающих рисков в быстро развивающейся среде искусственного интеллекта.
Центр стандартов и инноваций в области искусственного интеллекта (CAISI), являющийся неотъемлемой частью Министерства торговли США, официально объявил об этих новаторских соглашениях во вторник. Эта инициатива подчеркивает стремление федерального правительства понять истинные возможности и потенциальные уязвимости технологии искусственного интеллекта следующего поколения, одновременно защищая американские интересы. Создавая эту систему проверки, Министерство торговли стремится гарантировать, что новые мощные модели проходят тщательное тестирование безопасности перед развертыванием, что позволит политикам и экспертам по безопасности выявлять и устранять потенциальные риски до того, как они повлияют на миллионы пользователей.
В основе этих соглашений лежит целенаправленное изучение конкретных категорий угроз, которые вызывают наибольшую озабоченность у представителей национальной безопасности. Процесс тестирования национальной безопасности будет сосредоточен на выявлении потенциальных уязвимостей кибербезопасности, которыми могут воспользоваться злоумышленники, рисков биобезопасности, связанных с разработкой биологического оружия или патогенов, а также угроз химического оружия, которые могут возникнуть в результате неправильного использования систем искусственного интеллекта. Эти три области представляют собой наиболее острые проблемы национальной безопасности, выявленные спецслужбами и экспертами по обороне, что отражает годы анализа того, как передовые возможности ИИ потенциально могут быть использованы в качестве оружия или злоупотреблены.
Сроки заключения этих соглашений особенно важны, учитывая ускоряющиеся темпы развития искусственного интеллекта и конкурентное давление, стимулирующее инновации в этом секторе. Крупные технологические компании стремятся разработать все более мощные языковые модели и генеративные системы искусственного интеллекта, часто при ограниченном внешнем контроле в отношении их последствий для безопасности. Установив формальные каналы для проверки перед выпуском, Министерство торговли создало механизм, позволяющий внедрить федеральный опыт и соображения безопасности в процесс разработки без ненужного замедления технологического прогресса. Этот сбалансированный подход направлен на защиту национальных интересов при уважении инновационной экосистемы, которая сделала американские компании мировыми лидерами в разработке искусственного интеллекта.
Согласно официальному заявлению CAISI, это сотрудничество представляет собой важную работу «в общественных интересах в критический момент» для технологического сектора и национальной безопасности. Агентство подчеркнуло, что понимание всего спектра возможностей новых и мощных моделей искусственного интеллекта имеет основополагающее значение для защиты интересов американской безопасности, критической инфраструктуры и безопасности граждан. Поскольку передовые системы искусственного интеллекта становятся все более совершенными и мощными, потенциальные последствия их неправильного использования пропорционально возрастают, что делает превентивные меры безопасности более важными, чем когда-либо прежде.
Соглашения с этими тремя крупными разработчиками ИИ представляют собой серьезное обязательство частного сектора сотрудничать с федеральными властями. Microsoft, которая вложила значительные средства в OpenAI и разработала собственные передовые возможности искусственного интеллекта, имеет многолетний опыт управления развертыванием технологий и протоколов безопасности в масштабе предприятия. Google DeepMind, широко известная как одна из ведущих в мире исследовательских лабораторий в области искусственного интеллекта, вносит беспрецедентный опыт в разработке сложных систем машинного обучения и понимании их потенциальных возможностей и ограничений. Компания xAI, основанная Илоном Маском и занимающаяся разработкой передовых систем мышления, предлагает еще одну точку зрения более нового, но амбициозного игрока в сфере разработки искусственного интеллекта.
Эта система сотрудничества решает давнюю проблему в управлении ИИ: как сбалансировать необходимость надзора за безопасностью с необходимостью поддержания конкурентоспособного инновационного технологического сектора. Политики изо всех сил пытались разработать подходы к регулированию, которые непреднамеренно не подавляли бы полезные инновации и не выталкивали бы деятельность в области развития за границу в юрисдикции с менее строгим надзором. Заключая добровольные соглашения с ведущими компаниями, а не вводя обязательные правила, федеральное правительство нашло прагматичную золотую середину, которая поощряет сотрудничество, сохраняя при этом технологическое лидерство Америки.
Процесс проверки, описанный в этих соглашениях, скорее всего, создаст важные прецеденты того, как можно проводить масштабное тестирование безопасности ИИ. Поскольку эти компании продолжают разрабатывать все более функциональные системы, выводы, полученные в результате проверок безопасности, помогут правительству понять возникающие риски и помочь сформировать будущие политические решения. Данные и результаты, полученные в ходе этого процесса, могут в конечном итоге повлиять на то, как федеральные агентства будут подходить к регулированию, надзору и инвестиционным решениям в области ИИ в ближайшие годы.
Это объявление также отражает растущее признание среди правительственных чиновников того, что эффективное управление ИИ требует постоянного взаимодействия с компаниями, которые находятся на переднем крае разработки ИИ. Вместо того, чтобы полагаться исключительно на ретроспективный анализ систем, уже находящихся в эксплуатации, этот упреждающий подход позволяет экспертам по безопасности выявлять и решать проблемы на этапе разработки, когда вмешательство зачастую наиболее эффективно. Этот переход к совместному и дальновидному надзору представляет собой развитие подхода правительства к управлению новыми технологиями.
В перспективе эти соглашения могут послужить образцом для расширения сотрудничества между правительством и промышленностью по вопросам безопасности и защиты ИИ. По мере того, как все больше компаний выходят на рынок передового ИИ и возможности продолжают быстро развиваться, аналогичные механизмы могут быть распространены на других разработчиков, создавая более широкую экосистему скоординированных проверок безопасности. Успех или неудача этой первоначальной попытки, вероятно, повлияет на то, останутся ли модели добровольного сотрудничества жизнеспособными или возникнет необходимость в более формальных регулирующих структурах для обеспечения адекватного надзора за передовыми системами ИИ.
Заявление Министерства торговли отражает более широкую приверженность администрации Байдена обеспечению того, чтобы Соединенные Штаты сохраняли как технологическое лидерство, так и эффективный надзор за критически важными новыми технологиями. Заключив эти соглашения, не прибегая к жесткому регулированию, федеральные агентства продемонстрировали, что совместные подходы могут эффективно решать законные проблемы безопасности, сохраняя при этом инновационные стимулы, которые сделали американский технологический сектор глобально конкурентоспособным. Поскольку технологии искусственного интеллекта продолжают развиваться беспрецедентными темпами, поддержание баланса между инновациями и контролем за безопасностью останется одной из наиболее важных задач как для политиков, так и для лидеров отрасли.


