五角大楼 vs Anthropic:人工智能安全合同纠纷展开

国防部和 Anthropic 在影响军事人工智能部署的高风险五角大楼合同谈判中就人工智能安全协议发生冲突。
随着五角大楼一项重要合同的谈判陷入僵局,美国国防部和领先的人工智能公司之一 Anthropic 之间出现了重大的人工智能安全纠纷。分歧的核心是人工智能系统应如何在军事环境中部署以及必须采取哪些安全措施来保护国家安全利益等基本问题。
合同谈判已持续数月,涉及在国防部的各种行动中可能部署Anthropic的人工智能技术。熟悉讨论的消息人士表示,主要症结在于安全协议以及在不影响其有效性或违反公司道德准则的情况下,Anthropic 的人工智能系统可以在多大程度上修改或限制用于军事应用。
五角大楼官员对 Anthropic 提出的过于严格的安全措施表示失望,认为这种限制可能会妨碍军方在关键行动中有效利用人工智能的能力。国防部认为,国家安全要求需要对标准人工智能安全协议进行某些修改,特别是在涉及时间敏感的情报分析和战略决策过程的情况下。
相反,Anthropic 代表坚定地坚持对人工智能安全标准的承诺,强调损害这些原则可能会为更广泛的人工智能行业树立危险的先例。该公司投入巨资开发所谓的“宪法人工智能”,即采用内置安全措施和道德约束设计的系统,以防止滥用或意外后果。
这场争议反映了人工智能界内部关于创新与安全之间适当平衡的更广泛的紧张局势,特别是在政府和军事应用方面。行业专家指出,这种分歧可能会对人工智能公司如何与政府机构合作以及是否可以在不同部门建立标准化安全协议产生深远影响。
据国防工业分析师称,五角大楼越来越注重将人工智能融入其业务,作为更广泛的现代化努力的一部分,旨在保持对潜在对手的技术优势。这一举措导致了与私营人工智能公司的众多合作伙伴关系,但由于对安全、道德和适当用例的担忧,并非所有合作都进展顺利。
分歧的具体技术方面在很大程度上仍然属于机密,但消息人士表明,关键问题包括数据处理协议、算法透明度要求,以及军事人员对人工智能生成建议的凌驾能力程度。考虑到军事决策过程可能带来的生死攸关的后果,这些担忧尤为严重。
Anthropic 在这场纠纷中的立场与该公司对人工智能安全的公开立场一致,自前 OpenAI 研究人员创立该公司以来,这一立场一直是其企业形象的基石。该公司一再强调其致力于开发安全、可操纵且符合人类价值观的人工智能系统,即使这些原则给商业合作伙伴关系带来了挑战。
谈判还凸显了围绕军事人工智能应用的复杂监管环境。与民用人工智能部署不同,军事人工智能系统必须遵守额外的监督和审批流程,包括各个国防委员会的审查以及遵守国际武装冲突法。
专门研究技术法的法律专家表示,这些谈判的结果可能为人工智能公司与政府机构之间的未来合同奠定重要先例。这场纠纷的解决可能会影响其他主要人工智能开发商(包括 OpenAI、Google DeepMind 和微软)如何与联邦机构建立类似的合作关系。
考虑到围绕人工智能开发和部署的更广泛的地缘政治背景,这场争端的时机尤为重要。随着世界各国竞相利用人工智能来实现国家安全目的,美国面临着快速整合这些技术的压力,同时维持将民主方法与专制竞争对手的方法区分开来的道德标准和安全协议。
行业观察家指出,国防部的人工智能战略在过去几年中发生了很大变化,从实验性试点计划转向大规模实施工作。这种转变需要新的框架来评估和部署人工智能系统,这通常会与制定了自己的安全标准和操作指南的公司产生摩擦。
这场纠纷的财务影响超出了直接合同价值,可能会影响 Anthropic 更广泛的业务战略及其与其他政府客户的关系。国防合同通常是人工智能公司的重要收入来源,可以在高风险环境中验证其技术。
与此同时,国会监督委员会开始对国防部如何处理人工智能采购和部署越来越感兴趣。一些立法者呼吁提高这些流程的透明度,认为纳税人应该了解他们的钱如何花在新兴技术上,以及有哪些保障措施来防止滥用。
解决这一人工智能安全合同纠纷可能需要双方妥协,可能涉及第三方监督机制、修改安全协议或分阶段实施方法,以便在维持基本安全标准的同时逐步整合 Anthropic 的技术。此类解决方案可以作为人工智能公司与政府机构之间跨部门和机构之间未来谈判的模板。
随着这些谈判的继续,更广泛的人工智能社区正在密切关注,他们认识到结果可能会极大地影响政府与行业在人工智能开发和部署方面合作的未来格局,特别是在风险最高的敏感国家安全背景下。
来源: The New York Times


