Крупные технологические компании открывают модели искусственного интеллекта для рассмотрения правительством США

Google, Microsoft и xAI соглашаются провести оценку передовых моделей искусственного интеллекта правительственными учреждениями США перед развертыванием для оценки национальной безопасности.
Сделав важный шаг к нормативному надзору за разработкой искусственного интеллекта, компании Google DeepMind, Microsoft и xAI Илона Маска взяли на себя обязательство разрешить правительству США проводить всесторонние проверки своих новейших моделей искусственного интеллекта, прежде чем они станут достоянием широкой публики. Заявление, сделанное во вторник Центром стандартов и инноваций ИИ Министерства торговли (CAISI), представляет собой растущую приверженность безопасности ИИ и соображениям национальной безопасности в быстро развивающейся области передовых технологий искусственного интеллекта.
Согласно официальному заявлению CAISI, партнерство будет сосредоточено на проведении «оценок перед развертыванием и целевых исследований для лучшей оценки передовых возможностей искусственного интеллекта». Такой совместный подход крупных технологических компаний и федеральных агентств подчеркивает растущее признание того, что передовые системы искусственного интеллекта требуют тщательной оценки перед их широким распространением. Инициатива направлена на то, чтобы сбалансировать инновации и проблемы безопасности, гарантируя, что мощные технологии искусственного интеллекта будут тщательно оценены на предмет потенциальных рисков, прежде чем они станут доступными миллионам пользователей по всему миру.
CAISI, действующая под руководством Министерства торговли, активно занимается оценкой моделей ИИ с момента установления аналогичных партнерских отношений с OpenAI и Anthropic в 2024 году. На начальном этапе сотрудничества с этими организациями центр уже выполнил впечатляющие 40 обзоров различных моделей ИИ. Эти обзоры предоставили ценную информацию о возможностях и потенциальных уязвимостях передовых систем искусственного интеллекта и создали важные прецеденты того, как государственные учреждения могут эффективно оценивать передовые технологии искусственного интеллекта.
Расширение надзора CAISI за счет Google DeepMind, Microsoft и xAI представляет собой расширение участия правительства в оценке моделей ИИ. Согласно заявлению Министерства торговли, и OpenAI, и Anthropic «пересмотрели свои существующие партнерские отношения с центром, чтобы лучше соответствовать приоритетам администрации президента Дональда Трампа». Этот пересмотр позволяет предположить, что подход правительства к надзору за ИИ продолжает развиваться: обновленные критерии и методологии оценки отражают текущие политические приоритеты и проблемы национальной безопасности.
Участие этих технологических гигантов свидетельствует о важных изменениях в подходах отрасли к соблюдению нормативных требований и обеспечению прозрачности правительства. Системы Frontier AI, представляющие собой передовые возможности искусственного интеллекта, стали объектом все более пристального внимания со стороны политиков и экспертов по безопасности, обеспокоенных потенциальными рисками. Добровольно соглашаясь на правительственную проверку перед публичным развертыванием, эти компании пытаются решить проблему неконтролируемого развития искусственного интеллекта, сохраняя при этом свои конкурентные позиции в быстро развивающемся технологическом секторе.
Google DeepMind, известная разработкой передовых систем искусственного интеллекта, таких как AlphaGo и Gemini, вкладывает в это сотрудничество значительные ресурсы и опыт. Приверженность подразделения оценке перед развертыванием отражает более широкую стратегию компании по позиционированию себя как ответственного участника в сфере искусственного интеллекта. Microsoft, сделав значительные инвестиции в технологии искусственного интеллекта и сотрудничая с OpenAI, также подчеркнула важность вопросов безопасности в своей дорожной карте развития искусственного интеллекта. Эти обязательства демонстрируют, что крупные технологические корпорации все чаще признают необходимость государственного надзора за ответственной разработкой технологий искусственного интеллекта.
Участие xAI в этом процессе правительственной проверки особенно примечательно, учитывая, что компания сравнительно недавно стала крупным игроком на рынке искусственного интеллекта. Компания xAI, основанная Илоном Маском, занимается разработкой передовых языковых моделей и систем рассуждения, и ее включение в программу оценки CAISI указывает на то, что новые компании в этой сфере также используют механизмы государственного надзора. Такое широкое участие компаний разного размера и уровня зрелости свидетельствует о том, что системы управления искусственным интеллектом становятся все более стандартизированными во всей отрасли.
Процесс оценки перед развертыванием, проводимый CAISI, включает в себя несколько аспектов оценки, включая оценку возможностей модели, выявление потенциальных проблем безопасности и анализ того, как системы ИИ могут работать в различных реальных сценариях. Целевые исследовательские компоненты партнерства позволяют правительственным оценщикам глубже погрузиться в конкретные проблемные области, например, как модели решают деликатные темы или проявляют ли они предвзятость, которая может иметь социальные последствия. Этот многогранный подход к оценке отражает глубокое понимание сложностей, связанных с оценкой передовых систем искусственного интеллекта.
Расширение правительственных программ проверки искусственного интеллекта отражает более широкие дискуссии в администрациях Байдена и Трампа о том, как управлять быстрым развитием технологий искусственного интеллекта. Политики и эксперты по национальной безопасности выразили обеспокоенность по поводу развертывания систем искусственного интеллекта без адекватных испытаний на безопасность, особенно с учетом того, что эти системы могут влиять на критически важную инфраструктуру, системы национальной обороны и конфиденциальные правительственные операции. Обязательство Google, Microsoft и xAI разрешить правительственную проверку перед развертыванием напрямую решает некоторые из этих проблем.
Это сотрудничество также создает важные прецеденты того, как добровольное отраслевое сотрудничество может дополнять нормативно-правовую базу. Вместо того, чтобы внедрять строгие требования, которые могут подавить инновации или стимулировать развитие за рубежом, правительство придерживается партнерского подхода, который поощряет компании к саморегулированию, сохраняя при этом прозрачность с федеральными агентствами. Этот сбалансированный подход получил поддержку со стороны сторонников технологической отрасли, которые утверждают, что ответственные инновации требуют как адекватного надзора, так и достаточной гибкости, чтобы компании могли развивать новые возможности.
В перспективе успех этих программ оценки может повлиять на то, как другие страны подходят к управлению и регулированию ИИ. Усилия правительства США по поиску баланса между инновациями и безопасностью посредством партнерства с ведущими компаниями, занимающимися искусственным интеллектом, могут послужить моделью международного сотрудничества в области стандартов и методологий оценки искусственного интеллекта. Поскольку искусственный интеллект продолжает быстро развиваться, создание эффективных механизмов оценки и надзора, вероятно, станет все более важным для национальной безопасности и общественного доверия к этим преобразующим технологиям.
Источник: The Verge

