La herramienta de inteligencia artificial de Anthropic se utilizó en los ataques de Estados Unidos e Israel contra Irán a pesar de la prohibición de Trump

Según se informa, el ejército estadounidense utilizó el modelo de inteligencia artificial Claude de Anthropic en sus ataques contra Irán, a pesar de la decisión de Trump de cortar los lazos con la compañía horas antes.
Anthropic, Claude, fue supuestamente utilizado por el ejército estadounidense en sus ataques conjuntos con Israel contra Irán, a pesar de la decisión de Donald Trump apenas unas horas antes de cortar todos los vínculos con la compañía y sus herramientas de inteligencia artificial.
El uso de Claude durante el bombardeo masivo que comenzó el sábado fue informado por el Wall Street Journal. y Axios, lo que subraya la complejidad que enfrenta el ejército estadounidense al retirar poderosas herramientas de inteligencia artificial de sus operaciones cuando la tecnología ya está profundamente arraigada en las misiones militares.

Los informes destacan el desafío de eliminar por completo los sistemas avanzados de inteligencia artificial como Claude del servicio activo, incluso cuando el liderazgo político dirige tal medida. La integración de estas poderosas herramientas en la toma de decisiones militares y la planificación de ataques se ha vuelto tan extensa que cortarlas abruptamente puede interrumpir las operaciones en curso.
Trump había calificado anteriormente a Anthropic una "empresa de inteligencia artificial de izquierda radical" dirigida por personas que "no tienen idea de qué se trata el mundo real". Su decisión de prohibir el uso de las herramientas de inteligencia artificial de la compañía fue una declaración política dramática, pero las realidades prácticas de las operaciones militares han complicado la implementación de esta directiva.
El incidente resalta la creciente influencia de los sistemas avanzados de inteligencia artificial en la guerra moderna y los desafíos que enfrentan los formuladores de políticas al regular el uso de estas poderosas tecnologías. A medida que la IA se integra más profundamente en los procesos de toma de decisiones militares, la capacidad de desconectarse rápidamente de estas herramientas se vuelve cada vez más difícil, lo que plantea importantes cuestiones sobre la rendición de cuentas, la supervisión y el futuro de la IA en las operaciones de defensa.
El uso reportado de Claude en los ataques de Estados Unidos e Israel contra Irán subraya la necesidad de políticas y protocolos claros en torno al despliegue de la IA en contextos militares. Los formuladores de políticas y los líderes militares deben lidiar con la compleja interacción entre el avance tecnológico, las tensiones geopolíticas y las realidades operativas de la guerra moderna para garantizar el uso responsable y ético de estas poderosas herramientas.


