人工智能初创公司就其“克劳德”工具的军事使用展开人性斗争

Anthropic 与法院关于向美国军方提供人工智能助手“克劳德”的相互矛盾的裁决进行了斗争,引发了关于科技公司在国防中角色的争论。
在一场持续的法律斗争中,人工智能公司 Anthropic 面临着相互矛盾的法院裁决,因为美国军方对其人工智能助手“克劳德”的使用方式施加了限制。美国上诉法院维持了之前的决定,即在 Anthropic 的软件上保留供应链风险标签,此举限制了军方部署该技术的能力。
供应链风险标签最初是由美国国防部以国家安全为由强加的。 Anthropic 一直在努力要求删除该标签,认为它不公平地限制了军方对其人工智能技术的使用。该公司声称该标签可能会阻碍其与政府开展业务的能力并扼杀技术创新。
不过,上诉法院支持了先前的裁决,认为供应链风险标签是保护国家安全利益的合理措施。法院指出,该标签并不完全禁止军方使用克劳德,而是对其部署施加额外的监督和限制。
{{IMAGE_PLACEHOLDER}}来源: Wired


