Фирма по искусственному интеллекту Anthropic бросает вызов ограничениям Пентагона в отношении ИИ в судебном разбирательстве

Anthropic выступает против Пентагона США в суде Сан-Франциско, обвиняя его в незаконном возмездии за отказ компании ослабить меры безопасности ИИ для использования в военных целях.
В споре о будущем искусственного интеллекта (ИИ) с высокими ставками исследовательская фирма по искусственному интеллекту Anthropic вышла на арену против мощи Пентагона США. Компания обвинила Пентагон в незаконных ответных мерах после того, как тот отказался ослабить строгие ограничения безопасности ИИ для военного использования.
Разборки разворачиваются в зале суда Сан-Франциско, где Anthropic оспаривает решение Пентагона запретить компании участвовать в ее проектах в области искусственного интеллекта и возможностях финансирования. Этот шаг был предпринят после того, как Anthropic твердо придерживалась своей приверженности ответственной разработке ИИ, отказываясь идти на компромисс со своими этическими принципами.
В основе спора лежит уверенность Anthropic в том, что требования Пентагона о беспрепятственном доступе к ее технологиям искусственного интеллекта подорвут усилия компании по обеспечению безопасного и этичного внедрения ее творений. Anthropic уже давно находится в авангарде движения за согласование ИИ, целью которого является разработка систем ИИ, соответствующих человеческим ценностям и интересам.
"Мы не можем с чистой совестью предоставлять военным системы искусственного интеллекта, которые не прошли строгие испытания на безопасность и согласованность", - сказал Дарио Амодей, соучредитель и главный научный сотрудник Anthropic. «Ставки слишком высоки, и мы несем ответственность перед обществом за обеспечение ответственного использования наших технологий».
Пентагон, с другой стороны, утверждает, что позиция Anthropic ограничивает ее способность использовать последние достижения в области искусственного интеллекта в целях национальной безопасности. Военные уже давно являются движущей силой развития искусственного интеллекта и проявляют большой интерес к применению этих технологий в широком спектре приложений — от автономных систем вооружения до прогнозной аналитики.
"Мы считаем, что отказ Anthropic работать с Пентагоном является нарушением их обязанности поддерживать защиту нации", - заявил представитель Пентагона. «Соображения безопасности и этики, на которые они ссылаются, верны, но их нельзя использовать в качестве общего оправдания, чтобы избежать сотрудничества с военными».
Исход этой судебной тяжбы может иметь далеко идущие последствия для будущего развития и внедрения ИИ как в гражданской, так и в военной сфере. Позиция Anthropic получила широкую поддержку со стороны сообщества по этике ИИ, которое рассматривает принципиальную позицию компании как важнейшую защиту от бесконтрольной милитаризации ИИ.
"Это поворотный момент в движении за этику ИИ", — сказала Кейт Вулвертон, ведущий эксперт по политике в области ИИ. «Решения, принятые в этом случае, определят рамки и гарантии, которые будут определять использование ИИ не только военными, но и обществом в целом».
Поскольку судебная тяжба продолжается, мир будет внимательно следить за тем, как развернется это столкновение с высокими ставками между Anthropic и Пентагоном, при этом будущее ответственной разработки ИИ висит на волоске.
Источник: Al Jazeera


