Anthropic Challenges, creador de chatbots, desafía la sentencia del Pentágono sobre la cadena de suministro

Anthropic, el desarrollador del chatbot Claude, está demandando al Departamento de Defensa por una decisión de la era Trump de designar la tecnología de la empresa como un riesgo para la seguridad nacional.
La startup de inteligencia artificial Anthropic ha presentado una demanda contra el Departamento de Defensa, impugnando la decisión de la administración Trump de designar la tecnología de la empresa como un riesgo para la seguridad nacional e imponer una prohibición federal a su uso.
La disputa surge de una disputa contractual entre Anthropic y el Departamento de Defensa, que escaló hasta convertirse en una designación de riesgo de cadena de suministro más amplia que prohibía efectivamente a las agencias federales utilizar los productos de la empresa, incluido su popular chabot Claude.
En su demanda, Anthropic argumenta que el gobierno se excedió en su autoridad y no proporcionó a la startup el debido proceso ni una oportunidad significativa para abordar las preocupaciones de seguridad nacional. La empresa afirma que la designación fue arbitraria, caprichosa y contraria a la ley.
"Anthropic se toma muy en serio la seguridad de su tecnología y la confianza de sus clientes", dijo la compañía en un comunicado. "Confiamos en que nuestros productos y servicios no suponen ningún riesgo para la seguridad nacional y nos defenderemos enérgicamente contra esta extralimitación del gobierno".
La disputa resalta la creciente tensión entre la industria de la IA en rápida evolución y los esfuerzos gubernamentales para mitigar los posibles riesgos de seguridad que plantean las tecnologías emergentes. A medida que los chabots y modelos lingüísticos impulsados por IA se vuelven más sofisticados y ampliamente adoptados, los responsables políticos están lidiando con cómo equilibrar la innovación y las preocupaciones de seguridad nacional.
Anthropic, cofundada por el ex neurocientífico de Google Dario Amodei, se ha posicionado como líder en el desarrollo de una IA ética y responsable. La empresa ha expresado claramente la importancia de alinear los sistemas de IA con los valores humanos y garantizar que no se utilicen indebidamente con fines dañinos.
La demanda contra el Departamento de Defensa es el último capítulo del debate en curso sobre la regulación y supervisión de la industria de la IA. A medida que la tecnología continúa evolucionando, los formuladores de políticas y las empresas necesitarán encontrar una manera de trabajar juntos para abordar las preocupaciones legítimas de seguridad y al mismo tiempo apoyar la innovación y el progreso.
Fuente: Wired


