El Pentágono califica a Anthropic como una amenaza de alto riesgo para la cadena de suministro

Después de negociaciones polémicas, el Departamento de Defensa de EE. UU. calificó formalmente a Anthropic como un "riesgo para la cadena de suministro", impidiendo a los contratistas de defensa utilizar la tecnología de inteligencia artificial de la compañía. Esto intensifica el conflicto sobre las políticas de uso aceptable.
Anthropic, la destacada empresa de inteligencia artificial, ha sido designada formalmente como un riesgo de la cadena de suministro por el Departamento de Defensa de EE. UU., lo que intensifica la disputa en curso sobre el uso de la tecnología de la empresa. Esta decisión, reportada por primera vez por The Wall Street Journal, prohibirá a los contratistas de defensa utilizar Claude, el programa insignia de IA de Anthropic, en productos destinados al uso gubernamental.
La designación, que normalmente se aplica a entidades o tecnologías que representan una amenaza para la seguridad nacional, se produce después de semanas de negociaciones fallidas, ultimátums públicos y amenazas de demandas entre el Pentágono y Anthropic. La medida del Pentágono representa una escalada significativa en el conflicto sobre las políticas de uso aceptable que rigen las ofertas de IA de Anthropic.
Si bien la etiqueta de riesgo de la cadena de suministro suele estar reservada para entidades o tecnologías extranjeras, la decisión del Pentágono de aplicarla a Anthropic subraya la creciente tensión entre el gobierno y la empresa de inteligencia artificial sobre la postura de esta última en cuestiones como las armas autónomas y la vigilancia masiva.
Anthropic ha mantenido durante mucho tiempo que no permitirá que su IA se utilice en armas o con fines de vigilancia masiva, una política que aparentemente la ha puesto en desacuerdo con las prioridades del Departamento de Defensa. La empresa ha amenazado con acciones legales si el Pentágono intenta obligar a sus contratistas a utilizar la tecnología de Anthropic en contra de las directrices éticas de la empresa.
La designación formal de Anthropic como un riesgo de la cadena de suministro podría tener implicaciones significativas para las relaciones de la empresa con los contratistas de defensa y el gobierno en general. Queda por ver cómo responderá Anthropic a esta última escalada, pero el choque en curso entre la empresa de inteligencia artificial y el Pentágono es sin duda una batalla de alto riesgo con consecuencias de gran alcance para toda la industria tecnológica.
Mientras el Pentágono continúa lidiando con las implicaciones éticas y de seguridad de las tecnologías avanzadas de IA, el caso Anthropic resalta las crecientes tensiones entre las prioridades del gobierno y los principios de las empresas de tecnología. Este choque podría marcar la pauta para futuras interacciones entre el ejército y la industria de la IA, con importantes implicaciones para el desarrollo y la implementación de estas tecnologías transformadoras.
Fuente: The Verge


