聊天机器人制造商 Anthropic 挑战五角大楼供应链裁决

克劳德聊天机器人的开发商 Anthropic 正在起诉国防部,因为特朗普时代将该公司的技术指定为国家安全风险。
人工智能初创公司Anthropic已对国防部提起诉讼,质疑特朗普政府将该公司的技术指定为国家安全风险并对其使用实施联邦禁令的决定。
该纠纷源于 Anthropic 与国防部之间的合同纠纷,该纠纷升级为更广泛的供应链风险指定,有效禁止联邦机构使用该公司的产品,包括其广受欢迎的Claude 聊天机器人。
Anthropic 在诉讼中辩称,政府越权,未能为这家初创公司提供正当程序或有意义的机会来解决国家安全问题。该公司声称这一指定是任意、反复无常且违反法律的。
“Anthropic 极其重视其技术的安全性和客户的信任,”该公司在一份声明中表示。 “我们相信我们的产品和服务不会构成任何国家安全风险,我们将积极防御政府的这种越权行为。”
这场争端凸显了快速发展的人工智能行业与政府为减轻新兴技术带来的潜在安全风险所做的努力之间日益紧张的关系。随着人工智能驱动的聊天机器人和语言模型变得更加复杂和广泛采用,政策制定者正在努力解决如何平衡创新和国家安全问题。
Anthropic 由前 Google 大脑科学家 Dario Amodei 联合创立,将自己定位为道德和负责任的人工智能开发领域的领导者。该公司一直强调将人工智能系统与人类价值观结合起来并确保它们不会被滥用于有害目的的重要性。
针对国防部的诉讼是有关人工智能行业监管和监督的持续争论的最新篇章。随着技术的不断发展,政策制定者和公司将需要找到一种共同努力的方式来解决合法的安全问题,同时支持创新和进步。
来源: Wired


