La battaglia legale di Anthropic: il DoJ cita le preoccupazioni sull'uso dell'intelligenza artificiale militare

Il Dipartimento di Giustizia degli Stati Uniti contesta la causa di Anthropic, sostenendo che non ci si può fidare della società per i sistemi di guerra che utilizzano i suoi modelli Claude AI.
La battaglia legale in corso tra il Dipartimento di Giustizia degli Stati Uniti (DoJ) e la società di intelligenza artificiale Anthropic ha preso una nuova svolta. In una recente dichiarazione, il governo ha affermato che non ci si può fidare di Anthropic per lo sviluppo di sistemi di intelligenza artificiale che potrebbero essere utilizzati per scopi di guerra militare.
La disputa nasce dalla decisione del DoJ di penalizzare Anthropic per aver tentato di limitare il modo in cui i suoi modelli Claude AI potrebbero essere utilizzati dai militari. Anthropic aveva intentato una causa contestando questa azione, ma l'ultima risposta del governo suggerisce che ritiene che le preoccupazioni dell'azienda sull'uso militare della sua tecnologia siano infondate.
Nella documentazione, il DoJ ha dichiarato che Anthropic aveva cercato di farlo
Fonte: Wired


