五角大楼将 Anthropic 视为高风险供应链威胁

经过有争议的谈判后,美国国防部正式将 Anthropic 列为“供应链风险”,禁止国防承包商使用该公司的人工智能技术。这加剧了可接受使用政策的冲突。
Anthropic 是一家著名的人工智能公司,已被美国国防部正式指定为供应链风险,这使得围绕该公司技术使用的持续争议不断升级。这项决定首先由《华尔街日报》报道,将禁止国防承包商在供政府使用的产品中使用 Anthropic 的旗舰人工智能项目 Claude。
这一指定通常适用于对国家安全构成威胁的实体或技术,是在五角大楼和 Anthropic 之间数周的谈判失败、公开最后通牒和诉讼威胁之后做出的。五角大楼的举动代表着关于管理 Anthropic 人工智能产品的可接受使用政策的冲突显着升级。
虽然供应链风险标签通常是为外国实体或技术保留的,但五角大楼决定将其应用于 Anthropic,突显出政府与人工智能公司之间因后者在自主武器和大规模监视等问题上的立场而日益紧张。
Anthropic 长期以来一直坚称,它不会允许其人工智能用于武器或用于大规模监视的目的,这一政策似乎与国防部的优先事项相矛盾。如果五角大楼试图强迫其承包商违反公司的道德准则使用 Anthropic 的技术,该公司威胁要采取法律行动。
将 Anthropic 正式指定为供应链风险可能会对公司与国防承包商和更广泛的政府的关系产生重大影响。 Anthropic 将如何应对最新的升级还有待观察,但这家人工智能公司与五角大楼之间持续的冲突无疑是一场高风险的战斗,对整个科技行业产生深远的影响。
随着五角大楼继续努力解决先进人工智能技术的道德和安全影响,人类案例凸显了政府的优先事项与科技公司的原则之间日益紧张的关系。这场冲突可能为未来军队和人工智能行业之间的互动定下基调,对这些变革性技术的开发和部署产生重大影响。
来源: The Verge


