
Un juez federal expresa su preocupación por la decisión del Departamento de Defensa de designar a Anthropic, el creador de Claude AI, como un riesgo para la cadena de suministro, calificando la acción de "problemática".
Anthropic, la empresa de inteligencia artificial detrás de la aclamada Claude AI, se ha encontrado en el centro de una batalla legal con el Departamento de Defensa de los Estados Unidos. Durante una audiencia judicial reciente, un juez de un tribunal de distrito expresó su preocupación por las motivaciones del Pentágono para etiquetar a Anthropic como un riesgo para la cadena de suministro, y describió la medida como "problemática".
El caso se desarrolló cuando el Departamento de Defensa (DoD) designó a Anthropic como una amenaza potencial a la cadena de suministro, citando preocupaciones de seguridad nacional. Esta designación prohibió efectivamente a la empresa participar en ciertos contratos y colaboraciones gubernamentales. Anthropic cuestionó la decisión, argumentando que las acciones del Departamento de Defensa fueron arbitrarias y caprichosas.
{{IMAGE_PLACEHOLDER}} alt=Fuente: Wired