
Il Dipartimento della Difesa degli Stati Uniti ha etichettato Anthropic, la società dietro il chatbot AI Claude, come un rischio per la catena di approvvigionamento a causa delle controversie in corso sulle misure di sicurezza dello strumento.
Anthropic, l'importante società di intelligenza artificiale, è stata designata come rischio nella catena di fornitura dal Dipartimento della Difesa degli Stati Uniti. Questa mossa arriva dopo mesi di controversie tra il Pentagono e Anthropic sulle misure di sicurezza implementate nel chatbot AI di punta di Anthropic, Claude.
La decisione del Pentagono di etichettare Anthropic come un rischio per la catena di approvvigionamento è uno sviluppo significativo nelle tensioni in corso tra l'agenzia governativa e l'azienda di intelligenza artificiale. La controversia è incentrata sul livello di tutela e di supervisione che Anthropic mette in atto per la sua tecnologia di intelligenza artificiale, in particolare per il chatbot Claude, progettato per impegnarsi in conversazioni aperte.
{{IMAGE_PLACEHOLDER}}Fonte: Deutsche Welle