Startup di intelligenza artificiale in battaglie antropiche sull'uso militare del suo strumento "Claude".

Anthropic combatte le contrastanti sentenze dei tribunali sulla fornitura del suo assistente AI "Claude" alle forze armate statunitensi, innescando il dibattito sul ruolo delle aziende tecnologiche nella difesa nazionale.
In una battaglia legale continua, la società di intelligenza artificiale Anthropic si trova ad affrontare sentenze contrastanti dei tribunali sulle restrizioni imposte su come il suo assistente AI 'Claude' può essere utilizzato dalle forze armate statunitensi. La Corte d'Appello degli Stati Uniti ha confermato la precedente decisione di mantenere in vigore un'etichetta di rischio della catena di fornitura sul software di Anthropic, una mossa che limita la capacità dei militari di utilizzare la tecnologia.
L'etichetta di rischio della catena di fornitura è stata inizialmente imposta dal Dipartimento della Difesa degli Stati Uniti, citando preoccupazioni per la sicurezza nazionale. Anthropic si è battuta per far rimuovere l'etichetta, sostenendo che limita ingiustamente l'accesso dei militari alla sua tecnologia di intelligenza artificiale. L'azienda sostiene che l'etichetta potrebbe ostacolare la sua capacità di fare affari con il governo e soffocare l'innovazione tecnologica.
Tuttavia, la Corte d'Appello si è schierata con la sentenza precedente, affermando che l'etichetta di rischio della catena di fornitura è una misura ragionevole per proteggere gli interessi di sicurezza nazionale. La corte ha osservato che l'etichetta non vieta completamente ai militari di utilizzare Claude, ma piuttosto impone ulteriori controlli e restrizioni sul suo dispiegamento.
{{IMAGE_PLACEHOLDER}}Fonte: Wired


