Batallas antrópicas de una startup de IA por el uso militar de su herramienta 'Claude'

Anthropic lucha contra fallos judiciales contradictorios sobre el suministro de su asistente de inteligencia artificial 'Claude' al ejército estadounidense, lo que genera un debate sobre el papel de las empresas de tecnología en la defensa nacional.
En una batalla legal continua, la empresa de IA Anthropic se enfrenta a fallos judiciales contradictorios sobre las restricciones impuestas sobre cómo el ejército estadounidense puede utilizar su asistente de IA 'Claude'. El Tribunal de Apelaciones de EE. UU. confirmó una decisión anterior de mantener una etiqueta de riesgo de la cadena de suministro en el software de Anthropic, una medida que limita la capacidad del ejército para implementar la tecnología.
La etiqueta de riesgo de la cadena de suministro fue impuesta inicialmente por el Departamento de Defensa de EE. UU., citando preocupaciones de seguridad nacional. Anthropic ha estado luchando para que se elimine la etiqueta, argumentando que restringe injustamente el acceso de los militares a su tecnología de inteligencia artificial. La empresa afirma que la etiqueta podría obstaculizar su capacidad para hacer negocios con el gobierno y sofocar la innovación tecnológica.
Sin embargo, el Tribunal de Apelaciones se puso del lado del fallo anterior y afirmó que la etiqueta de riesgo de la cadena de suministro es una medida razonable para proteger los intereses de seguridad nacional. El tribunal señaló que la etiqueta no prohíbe completamente que los militares utilicen a Claude, sino que impone supervisión y restricciones adicionales a su despliegue.
{{IMAGE_PLACEHOLDER}}Fuente: Wired


