Gli antropici affrontano la pressione del Dipartimento della Difesa per sbloccare l’intelligenza artificiale per usi militari

Il segretario alla Difesa americano Pete Hegseth minaccia di escludere Anthropic dalla catena di approvvigionamento militare a meno che non fornisca accesso illimitato ai suoi modelli di intelligenza artificiale per missioni classificate.
Anthropic, una delle principali società di ricerca sull'intelligenza artificiale, sta affrontando forti pressioni da parte del Dipartimento della Difesa degli Stati Uniti (DoD) per sbloccare i suoi modelli linguistici avanzati per applicazioni militari, tra cui la sorveglianza domestica e le armi autonome. Il segretario alla Difesa Pete Hegseth ha emesso un ultimatum, chiedendo che Anthropic approvi l'utilizzo della sua tecnologia in tutte le operazioni militari legali entro questo venerdì, altrimenti rischierà di essere tagliato dalla catena di approvvigionamento del Dipartimento della Difesa.

La crescente faida tra Anthropic e il Dipartimento della Difesa è stata innescata dal rifiuto della società di intelligenza artificiale di garantire ai militari accesso illimitato ai suoi modelli linguistici all'avanguardia. Anthropic ha resistito a queste richieste, citando preoccupazioni etiche sul potenziale uso improprio della sua tecnologia per armi autonome e programmi di sorveglianza domestica.
In un incontro teso martedì, Hegseth ha convocato l'amministratore delegato di Anthropic, Dario Amodei, a Washington, dove ha emesso l'ultimatum. Il segretario alla Difesa ha minacciato di escludere Anthropic dalla catena di fornitura del Dipartimento della Difesa o di invocare il Defense Production Act, una misura dell'era della Guerra Fredda che consente al presidente di controllare l'industria nazionale nell'interesse della difesa nazionale.

Lo scontro tra Anthropic e il Dipartimento della Difesa sottolinea i dibattiti etici più ampi che circondano l'uso della tecnologia IA nelle applicazioni militari. Mentre il Dipartimento della Difesa cerca di sfruttare gli ultimi progressi nell'elaborazione del linguaggio naturale e nell'apprendimento automatico per le sue operazioni, Anthropic e altre società di intelligenza artificiale hanno espresso preoccupazione per il potenziale uso improprio e la mancanza di un significativo controllo umano.
L'esito di questa situazione di stallo potrebbe avere implicazioni di vasta portata per il futuro della governance dell'IA e per il ruolo del settore privato nel plasmare lo sviluppo e l'implementazione di queste potenti tecnologie. Mentre il Dipartimento della Difesa continua a spingere per un maggiore accesso ai modelli di Anthropic, la posizione di principio dell'azienda potrebbe costituire un precedente per altre società di intelligenza artificiale che si muovono nel delicato equilibrio tra sicurezza nazionale e considerazioni etiche.
I prossimi giorni saranno cruciali mentre Anthropic e il Dipartimento della Difesa affrontano questo conflitto ad alto rischio. La decisione dell'azienda di capitolare alle richieste del dipartimento o di restare salda nelle proprie convinzioni etiche potrebbe avere conseguenze significative per il futuro della regolamentazione dell'intelligenza artificiale e del rapporto tra l'industria tecnologica e il complesso militare-industriale.
Fonte: Ars Technica


