Знакове рішення ставить під сумнів суперечливу спробу Пентагону обмежити антропний штучний інтелект

Федеральний суддя висловлює занепокоєння щодо рішення Міністерства оборони визнати Anthropic, творця Claude AI, ризиком для ланцюжка поставок, назвавши цю дію «проблемною».
Anthropic, компанія штучного інтелекту, що стоїть за відомим Claude AI, опинилася в центрі судової битви з Міністерством оборони Сполучених Штатів. Під час нещодавнього судового засідання суддя окружного суду висловив занепокоєння щодо мотивів Пентагону назвати Anthropic ризиком для ланцюжка поставок, назвавши цей крок «проблемним».
Справа розгорнулася, коли Міністерство оборони (DoD) визначило Anthropic як потенційну загрозу для ланцюга постачання, посилаючись на проблеми національної безпеки. Це визначення фактично забороняло компанію брати участь у певних державних контрактах і співпраці. Anthropic оскаржив це рішення, стверджуючи, що дії Міністерства оборони були свавільними та примхливими.
{{IMAGE_PLACEHOLDER}} alt=Джерело: Wired


