Il Pentagono definisce Anthropic una minaccia per la catena di fornitura ad alto rischio

Dopo trattative controverse, il Dipartimento della Difesa degli Stati Uniti ha formalmente etichettato Anthropic come un “rischio per la catena di fornitura”, impedendo agli appaltatori della difesa di utilizzare la tecnologia di intelligenza artificiale dell’azienda. Ciò intensifica lo scontro sulle politiche di utilizzo accettabile.
Anthropic, l'importante azienda di intelligenza artificiale, è stata formalmente designata come rischio nella catena di fornitura dal Dipartimento della Difesa degli Stati Uniti, aggravando la disputa in corso sull'uso della tecnologia dell'azienda. Questa decisione, riportata per la prima volta dal Wall Street Journal, impedirà agli appaltatori della difesa di utilizzare Claude, il programma di intelligenza artificiale di punta di Anthropic, in prodotti destinati all'uso governativo.
La designazione, tipicamente applicata a entità o tecnologie che rappresentano una minaccia per la sicurezza nazionale, arriva dopo settimane di negoziati falliti, ultimatum pubblici e minacce di azioni legali tra il Pentagono e Anthropic. La mossa del Pentagono rappresenta una significativa escalation nello scontro sulle politiche di utilizzo accettabile che governano le offerte di intelligenza artificiale di Anthropic.
Mentre l'etichetta di rischio della catena di fornitura è generalmente riservata a entità o tecnologie straniere, la decisione del Pentagono di applicarla ad Anthropic sottolinea la crescente tensione tra il governo e la società di intelligenza artificiale sulla posizione di quest'ultima su questioni come le armi autonome e la sorveglianza di massa.
Anthropic sostiene da tempo che non permetterà che la sua IA venga utilizzata nelle armi o per scopi di sorveglianza di massa, una politica che apparentemente l'ha messa in contrasto con le priorità del Dipartimento della Difesa. L'azienda ha minacciato azioni legali se il Pentagono tentasse di costringere i suoi appaltatori a utilizzare la tecnologia di Anthropic contro le linee guida etiche dell'azienda.
La designazione formale di Anthropic come rischio nella catena di fornitura potrebbe avere implicazioni significative per i rapporti dell'azienda con gli appaltatori della difesa e il governo in generale. Resta da vedere come Anthropic risponderà a quest'ultima escalation, ma lo scontro in corso tra l'azienda di intelligenza artificiale e il Pentagono è senza dubbio una battaglia ad alto rischio con conseguenze di vasta portata per l'intero settore tecnologico.
Mentre il Pentagono continua ad affrontare le implicazioni etiche e di sicurezza delle tecnologie avanzate di intelligenza artificiale, il caso Anthropic evidenzia le crescenti tensioni tra le priorità del governo e i principi delle aziende tecnologiche. Questo scontro potrebbe dare il tono alle future interazioni tra il settore militare e quello dell'intelligenza artificiale, con implicazioni significative per lo sviluppo e l'implementazione di queste tecnologie trasformative.
Fonte: The Verge


