Una sentenza storica mette in discussione il controverso tentativo del Pentagono di limitare l’intelligenza artificiale antropica

Un giudice federale esprime preoccupazione per la mossa del Dipartimento della Difesa di designare Anthropic, il creatore del Claude AI, come un rischio per la catena di approvvigionamento, definendo l'azione "problematica".
Anthropic, la società di intelligenza artificiale dietro l'acclamato Claude AI, si è trovata al centro di una battaglia legale con il Dipartimento della Difesa degli Stati Uniti. Durante una recente udienza in tribunale, un giudice di un tribunale distrettuale ha espresso preoccupazione per le motivazioni del Pentagono nell'etichettare Anthropic come un rischio per la catena di approvvigionamento, descrivendo la mossa come "problematica".
Il caso è scoppiato quando il Dipartimento della Difesa (DoD) ha designato Anthropic come una potenziale minaccia alla catena di approvvigionamento, citando preoccupazioni per la sicurezza nazionale. Questa designazione ha di fatto impedito alla società di partecipare ad alcuni contratti e collaborazioni governative. Anthropic ha contestato la decisione, sostenendo che le azioni del Dipartimento della Difesa erano sia arbitrarie che capricciose.
{{IMAGE_PLACEHOLDER}} alt=Fonte: Wired


