Пентагон против Anthropic: разворачивается спор по контракту о безопасности ИИ

Министерство обороны и Anthropic спорят по поводу протоколов безопасности ИИ в ходе переговоров с Пентагоном по контракту с высокими ставками, касающимся развертывания военного ИИ.
Между Министерством обороны США и Anthropic, одной из ведущих компаний в области искусственного интеллекта, возник серьезный спор о безопасности искусственного интеллекта, поскольку переговоры по важнейшему контракту с Пентагоном зашли в тупик. Разногласия сосредоточены на фундаментальных вопросах о том, как системы искусственного интеллекта следует развертывать в военных целях и какие меры безопасности необходимо принимать для защиты интересов национальной безопасности.
Переговоры по контракту, которые продолжаются уже несколько месяцев, предполагают потенциальное развертывание технологии искусственного интеллекта Anthropic в различных операциях Министерства обороны. Источники, знакомые с ходом дискуссии, указывают, что основной камнем преткновения являются протоколы безопасности и степень, в которой системы искусственного интеллекта Anthropic могут быть модифицированы или ограничены для использования в военных целях без ущерба для их эффективности или нарушения этических принципов компании.
Чиновники Пентагона выразили разочарование тем, что они считают чрезмерно ограничительными мерами безопасности, предложенными Anthropic, утверждая, что такие ограничения могут помешать военным эффективно использовать искусственный интеллект в критически важных операциях. Министерство обороны утверждает, что требования национальной безопасности требуют определенных изменений в стандартных протоколах безопасности ИИ, особенно в сценариях, включающих оперативный анализ разведывательных данных и процессы принятия стратегических решений.
Напротив, представители Anthropic твердо придерживаются своей приверженности стандартам безопасности ИИ, подчеркивая, что нарушение этих принципов может создать опасные прецеденты для более широкой индустрии ИИ. Компания вложила значительные средства в разработку того, что она называет «конституционным ИИ» — систем, разработанных со встроенными мерами безопасности и этическими ограничениями, которые предотвращают неправильное использование или непредвиденные последствия.
Спор отражает более широкую напряженность в сообществе ИИ по поводу надлежащего баланса между инновациями и безопасностью, особенно когда речь идет о правительственных и военных приложениях. Отраслевые эксперты отмечают, что это разногласие может иметь далеко идущие последствия для того, как компании, занимающиеся искусственным интеллектом, сотрудничают с государственными учреждениями и могут ли быть установлены стандартизированные протоколы безопасности в различных секторах.
По мнению аналитиков оборонной промышленности, Пентагон все больше внимания уделяет интеграции искусственного интеллекта в свои операции в рамках более широких усилий по модернизации, направленных на поддержание технологического превосходства над потенциальными противниками. Эта инициатива привела к многочисленным партнерским отношениям с частными компаниями, занимающимися искусственным интеллектом, хотя не все из них проходили гладко из-за опасений по поводу безопасности, этики и соответствующих вариантов использования.
Конкретные технические аспекты разногласий остаются в значительной степени засекреченными, но источники предполагают, что ключевые вопросы включают протоколы обработки данных, требования к алгоритмической прозрачности и степень, в которой военнослужащие будут иметь возможность игнорировать рекомендации, сгенерированные ИИ. Эти опасения особенно актуальны, учитывая потенциальные жизненные последствия процессов принятия военных решений.
Позиция Anthropic в этом споре соответствует публичной позиции компании в отношении безопасности ИИ, которая была краеугольным камнем ее корпоративной идентичности с момента ее основания бывшими исследователями OpenAI. Компания неоднократно подчеркивала свою приверженность разработке систем искусственного интеллекта, которые были бы безопасными, управляемыми и соответствовали человеческим ценностям, даже когда такие принципы создают проблемы для коммерческого партнерства.
Переговоры также высветили сложную нормативную среду, связанную с военными приложениями искусственного интеллекта. В отличие от гражданского внедрения ИИ, военные системы искусственного интеллекта должны проходить дополнительные уровни надзора и процессов утверждения, включая проверки различными комитетами обороны и соответствие международному праву вооруженных конфликтов.
Эксперты по правовым вопросам, специализирующиеся на технологическом праве, предполагают, что результаты этих переговоров могут создать важные прецеденты для будущих контрактов между компаниями, занимающимися искусственным интеллектом, и государственными учреждениями. Разрешение этого спора может повлиять на то, как другие крупные разработчики ИИ, в том числе OpenAI, Google DeepMind и Microsoft, будут подходить к аналогичному партнерству с федеральными агентствами.
Время возникновения этого спора особенно важно, учитывая более широкий геополитический контекст, связанный с разработкой и внедрением ИИ. В то время как страны всего мира стремятся использовать искусственный интеллект в целях национальной безопасности, Соединенные Штаты сталкиваются с необходимостью быстрой интеграции этих технологий, сохраняя при этом этические стандарты и протоколы безопасности, которые отличают демократические подходы от подходов авторитарных конкурентов.
Отраслевые обозреватели отмечают, что Стратегия Министерства обороны в области искусственного интеллекта значительно изменилась за последние несколько лет, перейдя от экспериментальных пилотных программ к широкомасштабным усилиям по внедрению. Этот переход потребовал новых рамок для оценки и развертывания систем искусственного интеллекта, что часто создавало трения с компаниями, которые разработали свои собственные стандарты безопасности и эксплуатационные инструкции.
Финансовые последствия этого спора выходят за рамки непосредственной стоимости контракта и потенциально влияют на более широкую бизнес-стратегию Anthropic и ее отношения с другими государственными клиентами. Контракты на оборону часто служат важным источником дохода для компаний, занимающихся ИИ, и могут обеспечить проверку их технологий в условиях высоких ставок.
Тем временем комитеты по надзору Конгресса начали проявлять повышенный интерес к тому, как Министерство обороны подходит к закупкам и развертыванию ИИ. Некоторые законодатели призвали к большей прозрачности этих процессов, утверждая, что налогоплательщики заслуживают того, чтобы понимать, как их деньги тратятся на новые технологии и какие меры защиты существуют для предотвращения злоупотреблений.
Разрешение этого спора по контракту о безопасности ИИ, скорее всего, потребует компромиссов с обеих сторон, потенциально с привлечением сторонних механизмов надзора, измененных протоколов безопасности или подходов к поэтапному внедрению, которые позволяют постепенно интегрировать технологию Anthropic при сохранении основных стандартов безопасности. Такие решения могут послужить шаблонами для будущих переговоров между компаниями, занимающимися искусственным интеллектом, и государственными учреждениями в различных ведомствах и ведомствах.
По мере того, как эти переговоры продолжаются, более широкое сообщество искусственного интеллекта внимательно наблюдает за ними, признавая, что их результат может существенно повлиять на будущую картину партнерства правительства и промышленности в разработке и внедрении искусственного интеллекта, особенно в чувствительных контекстах национальной безопасности, где ставки наиболее высоки.
Источник: The New York Times


