El controvertido acuerdo entre el Pentágono y el Antrópico colapsa: una advertencia para las empresas emergentes

El fallido contrato de Anthropic con el Pentágono por valor de 200 millones de dólares destaca los desafíos para las nuevas empresas de inteligencia artificial que navegan en asociaciones federales y las preocupaciones éticas sobre la inteligencia artificial militar.
En un giro dramático de los acontecimientos, el Pentágono ha designado oficialmente a Anthropic como un riesgo para la cadena de suministro después de que las dos partes no lograron llegar a un acuerdo sobre el nivel de control que los militares deberían tener sobre los modelos de IA de Anthropic, incluido su uso potencial en armas autónomas y vigilancia doméstica masiva. Cuando el contrato de 200 millones de dólares de Anthropic fracasó, el Departamento de Defensa (DoD) rápidamente recurrió a OpenAI, que aceptó el trato y luego observó cómo las desinstalaciones de ChatGPT aumentaban en un asombroso 295 %.
El colapso de la asociación Antrópico-Pentágono sirve como advertencia para las nuevas empresas de IA que navegan por las traicioneras aguas de la contratación federal, donde las preocupaciones éticas y el control sobre tecnologías sensibles pueden hacer o deshacer un acuerdo. A medida que aumentan los riesgos en la carrera por aprovechar el poder de la IA, la pregunta sigue siendo: ¿cuánto acceso irrestricto deberían tener los militares a estas tecnologías transformadoras?
{{IMAGE_PLACEHOLDER}}Fuente: TechCrunch


