人工智能公司 Anthropic 在与五角大楼的自主武器战斗中获胜

一位联邦法官授予 Anthropic 一项临时禁令,在这家人工智能公司因使用其 Claude AI 模型而与国防部发生对峙时支持该公司。
Anthropic 取得了重大法律胜利,加利福尼亚州的一名联邦法官在针对国防部的案件中支持了这家人工智能公司。该裁决授予 Anthropic 临时禁令,在法院审理整个案件期间暂停政府对该公司的惩罚措施。
争议的焦点是 Anthropic 拒绝允许五角大楼在自主武器系统中使用其 Claude AI 模型。国防部已宣布 Anthropic 存在供应链风险,并命令政府机构停止使用其技术,该公司认为此举侵犯了其第一修正案权利。

加州北部地区法院主审此案的法官 Rita Lin 同意 Anthropic 的立场,授予了临时禁令。这意味着,在法院审查该公司诉讼的实质内容期间,政府对该人工智能公司的惩罚行动将暂停。
该案代表了科技公司与军方之间因使用先进人工智能系统而发生的最新冲突。 Anthropic 一直坚持反对允许其模型用于自主武器,理由是道德问题和滥用的可能性。
这项裁决对 Anthropic 来说是一次重大胜利,它已将自己定位为人工智能道德发展的领导者。该公司的立场与五角大楼推动将人工智能纳入其武器库的努力相悖,引发了有关军事技术的边界以及私营公司在影响其使用方面的作用的重要问题。
此案的结果可能对科技行业和国防机构之间的关系以及关于人工智能系统的道德部署的更广泛的辩论产生深远的影响。 Anthropic 在这场法律战的第一轮胜利证明了其对其原则的承诺,也表明法院愿意维护科技公司做出此类选择的权利。
随着案件的进展,法律专家将密切关注法院如何处理国家安全、企业自主权和负责任的人工智能开发之间的复杂交叉点。风险很高,其结果可能会影响人工智能治理的未来以及私营公司在影响技术使用方面的作用。
来源: The Guardian


