El Pentágono exige acceso sin restricciones a la potencia de IA Anthropic

Anthropic, una startup líder en inteligencia artificial, enfrenta una intensa presión por parte del Pentágono para otorgar acceso total a sus modelos avanzados a pesar de las preocupaciones sobre la seguridad y la ética.
El Pentágono se ha convertido en una fuerza agresiva en la batalla por el control del futuro de la inteligencia artificial, poniendo su mirada en Anthropic, una startup de IA muy cacareada que ha captado la atención tanto de inversores como de responsables políticos. A pesar de los esfuerzos de Anthropic por equilibrar el inmenso poder de sus modelos con protocolos éticos y de seguridad sólidos, el ejército de EE. UU. exige acceso completo y sin restricciones a los sistemas de inteligencia artificial de vanguardia de la compañía.
Anthropic, fundada por antiguos investigadores de OpenAI, se ha establecido rápidamente como líder en el campo de los grandes modelos de lenguaje: los sistemas avanzados de IA que impulsan los chatbots, los asistentes virtuales y una gama cada vez mayor de aplicaciones inteligentes. El modelo insignia de la empresa, Chinchilla, ha sido elogiado por sus notables capacidades en áreas como procesamiento del lenguaje natural, finalización de tareas y generación de conocimiento. Sin embargo, esta misma destreza ha atraído la atención no deseada del Pentágono, que ve las innovaciones de Anthropic como un activo estratégico que debe ponerse bajo su control.
{{IMAGE_PLACEHOLDER}}La presión del Pentágono para acceder a los modelos de Anthropic está impulsada por el deseo de aprovechar la ventaja tecnológica de la empresa para aplicaciones militares, que van desde recopilación de inteligencia hasta sistemas de armas autónomos. Pero los fundadores de Anthropic, Dario Amodei y Paul Christiano, han enfatizado repetidamente la necesidad de equilibrar el inmenso poder de su IA con sólidas salvaguardias y consideraciones éticas.
Fuente: Deutsche Welle


