Anthropic отрицает возможность саботировать инструменты искусственного интеллекта в военное время

Руководители Anthropic опровергают утверждения Министерства обороны о том, что компания могла манипулировать своими моделями искусственного интеллекта во время войны, утверждая, что это технологически невозможно.
При неожиданном повороте событий исследовательская компания в области искусственного интеллекта Anthropic решительно опровергла обвинения Министерства обороны о том, что она потенциально может саботировать свои инструменты искусственного интеллекта или манипулировать ими в разгар войны. Это заявление, выдвинутое представителями министерства обороны, было встречено решительным сопротивлением со стороны руководителей Anthropic, которые утверждают, что такие действия просто неосуществимы с технологической точки зрения.
Основная обеспокоенность Министерства обороны заключается в том, что модели искусственного интеллекта Anthropic, которые являются весьма продвинутыми и функциональными, теоретически могут быть изменены или скомпрометированы самой компанией, даже после того, как они будут развернуты для использования военными. Это поднимает вопросы о надежности и надежности технологии, особенно в сценариях военного времени с высокими ставками.
Anthropic в ответ категорически опровергла эти обвинения, заявив, что системы компании разработаны с использованием надежных мер безопасности и отказоустойчивости, которые делают практически невозможным их вмешательство или саботаж даже со стороны собственных сотрудников Anthropic. Руководители компании официально заявили, что мысль о том, что они намеренно подрывают свои собственные инструменты искусственного интеллекта во время конфликта, просто невозможна с инженерной и технической точки зрения.
В попытке развеять опасения Министерства обороны компания Anthropic предложила пройти дальнейшие проверки и оценки безопасности, чтобы продемонстрировать устойчивость и надежность своих систем искусственного интеллекта. Компания также выразила готовность тесно сотрудничать с государственными учреждениями для разработки дополнительных мер безопасности и протоколов, которые предотвратят любое потенциальное неправильное использование или манипулирование ее технологией даже в самых тяжелых обстоятельствах.
Этот спор подчеркивает растущую напряженность между ролью частного сектора в разработке передовых технологий искусственного интеллекта и желанием правительства сохранить контроль и надзор за этими важнейшими инструментами, особенно в вопросах национальной безопасности. Поскольку использование искусственного интеллекта продолжает расширяться как в гражданских, так и в военных целях, это столкновение точек зрения, вероятно, станет все более заметной проблемой, которая потребует детальных решений и сотрудничества между заинтересованными сторонами отрасли и правительства.
В конечном счете, основной вопрос, лежащий в основе этой дискуссии, заключается в том, можно ли доверять Anthropic и другим компаниям, занимающимся искусственным интеллектом, в сохранении целостности и надежности своих технологий даже перед лицом чрезвычайного давления или конфликта. Непреклонные отрицания компании и предложения большей прозрачности предполагают желание развеять эти опасения, но долгосрочные последствия этого конфликта еще предстоит увидеть, поскольку индустрия искусственного интеллекта продолжает развиваться, а ее роль в национальной безопасности расширяется.
Источник: Wired


