Lo strumento AI di Anthropic utilizzato negli attacchi USA-Israele contro l'Iran nonostante il divieto di Trump

Secondo quanto riferito, l’esercito americano ha utilizzato il modello di intelligenza artificiale di Anthropic, Claude, nei suoi attacchi all’Iran, nonostante la decisione di Trump di recidere i legami con la compagnia poche ore prima.
Anthropic, Claude, è stato utilizzato dalle forze armate statunitensi nei suoi attacchi congiunti con Israele contro l'Iran, nonostante la decisione di Donald Trump poche ore prima di recidere tutti i legami con l'azienda e i suoi strumenti di intelligenza artificiale.
L'uso di Claude durante il massiccio bombardamento iniziato sabato è stato segnalato sia da Wall Street Journal e Axios, sottolineando la complessità che le forze armate statunitensi devono affrontare nel ritirare potenti strumenti di intelligenza artificiale dalle loro operazioni quando la tecnologia è già profondamente radicata nelle missioni militari.

I rapporti evidenziare la sfida di rimuovere completamente i sistemi avanzati di intelligenza artificiale come Claude dal servizio attivo, anche quando la leadership politica dirige una tale mossa. L'integrazione di questi potenti strumenti nel processo decisionale militare e nella pianificazione degli attacchi è diventata così estesa che interromperli bruscamente può interrompere le operazioni in corso.
Trump aveva precedentemente etichettato Anthropic una "società di intelligenza artificiale della sinistra radicale" gestita da persone che "non hanno idea di cosa sia il mondo reale". La sua decisione di vietare l'uso degli strumenti di intelligenza artificiale dell'azienda è stata una drammatica dichiarazione politica, ma la realtà pratica delle operazioni militari ha complicato l'attuazione di questa direttiva.
L'incidente evidenzia la crescente influenza dei sistemi avanzati di intelligenza artificiale nella guerra moderna e le sfide che i politici devono affrontare nel regolamentare l'uso di queste potenti tecnologie. Man mano che l'intelligenza artificiale diventa sempre più profondamente integrata nei processi decisionali militari, la capacità di disimpegnarsi rapidamente da questi strumenti diventa sempre più difficile, sollevando importanti questioni sulla responsabilità, sulla supervisione e sul futuro dell'intelligenza artificiale nelle operazioni di difesa.
L'uso segnalato di Claude negli attacchi USA-Israele all'Iran sottolinea la necessità di politiche e protocolli chiari sull'impiego dell'intelligenza artificiale in contesti militari. I politici e i leader militari devono confrontarsi con la complessa interazione tra progresso tecnologico, tensioni geopolitiche e realtà operative della guerra moderna per garantire l'uso responsabile ed etico di questi potenti strumenti.


