Стартап AI Anthropic бореться за військове використання свого інструменту «Claude».

Anthropic бореться з суперечливими судовими рішеннями про постачання свого помічника штучного інтелекту «Клода» американським військовим, викликаючи дебати щодо ролі технологічних компаній у національній обороні.
У триваючій судовій тяганині компанія зі штучним інтелектом Anthropic стикається з суперечливими судовими рішеннями щодо обмежень, накладених на те, як її асистент ШІ «Клод» може використовуватися американськими військовими. Апеляційний суд США підтримав попереднє рішення щодо збереження мітки ризику ланцюга постачання на програмному забезпеченні Anthropic, що обмежує здатність військових розгортати технологію.
Спочатку мітку ризику для ланцюга постачання нав’язало Міністерство оборони США з міркувань національної безпеки. Anthropic бореться за видалення ярлика, стверджуючи, що він несправедливо обмежує доступ військових до своєї технології ШІ. Компанія стверджує, що лейбл може перешкоджати її здатності вести бізнес з урядом і пригнічувати технологічні інновації.
Однак апеляційний суд підтримав попереднє рішення, заявивши, що мітка ризику ланцюга постачання є розумним заходом для захисту інтересів національної безпеки. Суд зазначив, що ярлик не повністю забороняє військовим використовувати Claude, а скоріше накладає додатковий контроль і обмеження на його використання.
{{IMAGE_PLACEHOLDER}}Джерело: Wired


