La controversa etichettatura del Pentagono scuote il panorama dell’intelligenza artificiale

Il Pentagono ha ufficialmente designato Anthropic come un rischio per la catena di approvvigionamento, la prima volta per un’azienda americana. Tuttavia, il DOD continua a utilizzare l’intelligenza artificiale di Anthropic in Iran, suscitando il dibattito.
Anthropic, l'importante azienda di intelligenza artificiale, è stata ufficialmente designata come rischio per la catena di fornitura dal Dipartimento della Difesa degli Stati Uniti (DOD). Questa mossa senza precedenti segna la prima volta che un'azienda americana riceve questa classificazione dal Pentagono.
L'etichetta rischio della catena di fornitura indica che il DOD considera i prodotti e i servizi di Anthropic come potenzialmente compromettenti gli interessi della sicurezza nazionale. Questa decisione arriva in un contesto di crescenti preoccupazioni per la crescente influenza e capacità della tecnologia IA, soprattutto nelle mani delle aziende private.
Nonostante questa designazione, il DOD ha continuato a utilizzare la tecnologia AI di Anthropic nelle operazioni relative all'Iran, sollevando interrogativi sull'approccio del governo alla gestione di questi rischi percepiti. L'apparente contraddizione tra l'etichetta di rischio e l'uso continuato degli strumenti di Anthropic ha attirato l'attenzione sia degli osservatori del settore che dei legislatori.
{{IMAGE_PLACEHOLDER}}Fonte: TechCrunch


