Правительство США тестирует модели искусственного интеллекта от Google, Microsoft и xAI

Новые соглашения о добровольных испытаниях безопасности между крупными ИИ-компаниями и Министерством торговли расширяют инициативы администрации Байдена по безопасности ИИ.
Правительство США объявило о значительном расширении своей программы тестирования безопасности искусственного интеллекта, объединяющей ведущие технологические компании, включая Google, Microsoft и xAI, для комплексной оценки их новейших моделей искусственного интеллекта. Эти новые соглашения представляют собой продолжение и усиление усилий, начатых администрацией Байдена, чтобы гарантировать, что передовые системы искусственного интеллекта соответствуют важнейшим стандартам безопасности перед их широким распространением.
Министерство торговли, выступающее в качестве основного федерального координатора этих инициатив, официально установило партнерские отношения с этими отраслевыми гигантами для проведения тщательной оценки безопасности их самых передовых моделей. Этот совместный подход отражает растущее согласие среди правительственных чиновников и лидеров отрасли в том, что упреждающее тестирование безопасности имеет важное значение, поскольку технология искусственного интеллекта становится все более мощной и интегрируется в критически важные приложения во всем обществе. Добровольный характер этих соглашений демонстрирует готовность крупных технологических компаний конструктивно участвовать в надзоре со стороны регулирующих органов, сохраняя при этом импульс инноваций.
Эти новые протоколы тестирования основаны непосредственно на фундаменте, заложенном во времена администрации Байдена, которая стала пионером в области добровольных обязательств по обеспечению безопасности ИИ. Эта более ранняя инициатива объединила ведущие компании в общей приверженности ответственной разработке ИИ с упором на прозрачность, безопасность и снижение рисков. В настоящее время расширение охватывает больше компаний и более сложные методологии тестирования, что отражает быстрое развитие сферы ИИ и растущую сложность разрабатываемых моделей.
Google, одна из крупнейших в мире технологических компаний со значительными возможностями исследований и разработок в области искусственного интеллекта, активно участвовала в этих программах тестирования безопасности. Участие компании подчеркивает важность оценки моделей, разработанных ее подразделением DeepMind, и других исследовательских инициатив. Microsoft, которая вложила значительные средства в возможности искусственного интеллекта благодаря партнерству с OpenAI и внутренними исследовательскими подразделениями, привносит значительный опыт в развертывание искусственного интеллекта в масштабе предприятия и учитывает уникальные риски, связанные с интеграцией искусственного интеллекта в критически важные для бизнеса системы.
xAI, развивающаяся компания в области искусственного интеллекта, основанная Илоном Маском, представляет собой нового участника группы компаний, проходящих федеральные испытания на безопасность. Несмотря на то, что xAI является более молодой организацией по сравнению с Google и Microsoft, она быстро разработала сложные модели искусственного интеллекта, которые требуют такого же уровня изучения и оценки, как и модели более авторитетных технологических гигантов. Включение xAI в эти соглашения об испытаниях на безопасность свидетельствует о признании правительством технологических возможностей компании и ее роли в формировании будущего развития искусственного интеллекта.
Система тестирования безопасности охватывает множество аспектов оценки системы искусственного интеллекта, включая оценку потенциальных предвзятостей, уязвимостей безопасности и надежности мер защиты от неправильного использования. Федеральные оценщики изучают, как эти модели обрабатывают крайние случаи, создают ли они вредный контент при определенных условиях и могут ли их процессы принятия решений быть адекватно проверены и поняты людьми-надзирателями. Такой комплексный подход признает, что безопасность ИИ — это не какой-то один показатель, а скорее многогранная задача, требующая тщательного изучения по многочисленным аспектам.
Министерство торговли подчеркнуло, что эти соглашения о тестировании остаются полностью добровольными, что отражает убежденность департамента в том, что отраслевое сотрудничество наиболее эффективно, когда оно достигается на основе партнерства, а не нормативных требований. Такой подход позволяет компаниям сохранять гибкость в проведении внутренней оценки безопасности, при этом соблюдая согласованные стандарты и участвуя в процессах оценки, координируемых правительством. Добровольная программа также поощряет компании выходить за рамки минимальных требований, способствуя развитию культуры безопасности в частном секторе.
Эти соглашения представляют собой продолжение прагматичного подхода администрации Байдена к управлению ИИ, который стремился сбалансировать необходимость контроля за безопасностью с желанием сохранить конкурентоспособность Америки в быстро развивающемся секторе ИИ. Федеральные чиновники признали, что чрезмерно строгое регулирование может замедлить инновации и уступить лидерство в этой важной технологической области международным конкурентам. Система добровольного тестирования обеспечивает золотую середину, обеспечивая базовые стандарты безопасности без наложения обременительного нормативного бремени, которое может поставить американские компании в невыгодное положение.
Протоколы тестирования специально направлены на устранение проблем, возникших в связи с тем, что большие языковые модели и другие передовые системы искусственного интеллекта стали более функциональными и получили широкое распространение. Случаи модельных галлюцинаций, предвзятые результаты и потенциальные уязвимости безопасности побудили как правительство, так и промышленность относиться к безопасности более серьезно. Эти соглашения о тестировании гарантируют, что такие проблемы будут выявлены и решены до того, как модели будут опубликованы или интегрированы в критически важные приложения в сфере здравоохранения, финансов и правительства.
Международная конкуренция в сфере разработки ИИ значительно усилилась: страны, в том числе Китай, Европейский Союз и Великобритания, разрабатывают собственные системы управления ИИ. Подход США к добровольному тестированию призван сохранить конкурентное преимущество страны и одновременно зарекомендовать себя как ответственного управляющего технологиями искусственного интеллекта. Демонстрируя, что американские компании могут ответственно разрабатывать мощные системы искусственного интеллекта, правительство надеется установить глобальные стандарты и сохранить лидерство Америки в этой преобразующей технологии.
Министерство торговли планирует публично публиковать результаты этих процессов тестирования безопасности, но осторожно, чтобы не раскрывать информацию, которая может поставить под угрозу безопасность или патентованные системы. Это обязательство по обеспечению прозрачности служит нескольким целям: оно укрепляет доверие общественности к безопасности развернутых систем искусственного интеллекта, предоставляет ценные сравнительные данные, которые могут способствовать улучшениям в масштабах всей отрасли, а также демонстрирует приверженность правительства надзору при уважении законных интересов бизнеса. Публикация совокупных результатов и выводов оценок безопасности может помочь внедрить передовой опыт в отрасли.
В будущем правительство ожидает, что эти соглашения о тестировании будут развиваться по мере развития технологий искусственного интеллекта и появления новых рисков. Структура разработана с достаточной гибкостью, чтобы адаптироваться к новым методологиям тестирования и решать новые проблемы, которые не были предусмотрены при официальном оформлении первоначальных соглашений. Этот адаптивный подход учитывает, что безопасность ИИ — это непрерывный процесс, а не разовая проверка соответствия, требующая постоянной бдительности и корректировки по мере изменения технологического ландшафта.
Участие этих трех крупнейших компаний в расширенной программе испытаний на безопасность посылает сильный сигнал всей индустрии искусственного интеллекта о важности практики ответственной разработки. Ожидается, что другие компании, разрабатывающие передовые системы искусственного интеллекта, столкнутся с аналогичным давлением, вынуждая их участвовать в государственной оценке безопасности или разрабатывать аналогичные программы внутренней безопасности. Эффект давления со стороны коллег может привести к широкому внедрению строгих мер безопасности в индустрии искусственного интеллекта, даже среди компаний, формально не связанных государственными соглашениями.
Федеральные чиновники подчеркнули, что эти соглашения о тестировании представляют собой лишь один компонент более широкой стратегии по управлению рисками ИИ и обеспечению того, чтобы технология приносила пользу обществу, одновременно сводя к минимуму потенциальный вред. Дополнительные усилия включают финансирование исследований в области безопасности ИИ, поддержку разработки стандартов технической безопасности и постоянный диалог с заинтересованными сторонами отрасли о возникающих проблемах. Комплексный подход признает, что ни одно вмешательство не может полностью решить сложные проблемы, связанные с передовыми системами искусственного интеллекта.
Поскольку искусственный интеллект продолжает все глубже внедряться в американское общество и мировую экономику, важность надежных систем безопасности невозможно переоценить. Эти новые соглашения о тестировании между Министерством торговли и ведущими компаниями, занимающимися искусственным интеллектом, представляют собой значительный шаг вперед в обеспечении ответственной разработки и безопасного развертывания мощных систем искусственного интеллекта. Поддерживая открытые каналы связи между правительством и промышленностью и одновременно устанавливая четкие стандарты безопасности, Соединенные Штаты работают над реализацией огромного потенциала ИИ, одновременно защищая от связанных с ним рисков.
Источник: BBC News


