Anthropic 否认有能力在战时破坏人工智能工具

Anthropic 高管反驳了国防部关于该公司可以在战时操纵其人工智能模型的说法,认为这在技术上是不可能的。
令人惊讶的是,人工智能研究公司Anthropic坚决否认了国防部提出的指控,即该公司可能在战争中破坏或操纵其人工智能工具。这一由国防官员提出的说法遭到了 Anthropic 高管的坚决反对,他们认为从技术角度来看,此类行动根本不可行。
国防部担心的核心在于这样一个事实:Anthropic 的人工智能模型非常先进且功能强大,理论上即使在部署供军队使用之后,公司本身也可能会对其进行更改或损害。这引发了人们对该技术的可靠性和可信度的质疑,尤其是在高风险的战时场景中。
Anthropic 对此作出回应,断然驳斥这些指控,称该公司的系统设计有强大的安全措施和故障保险装置,几乎不可能被篡改或破坏,即使是 Anthropic 自己的员工也是如此。该公司的高管公开声称,从工程和技术的角度来看,他们在冲突期间故意破坏自己的人工智能工具的想法根本不可行。
为了解决国防部的担忧,Anthropic 提出接受进一步的审计和安全评估,以证明其人工智能系统的稳健性和可靠性。该公司还表示愿意与政府机构密切合作,制定额外的保障措施和协议,以防止任何潜在的滥用或操纵其技术的情况,即使在最严峻的情况下也是如此。
这场争端凸显了私营部门在开发先进人工智能技术中的作用与政府对这些关键工具保持控制和监督的愿望之间日益紧张的关系,特别是在国家安全问题上。随着人工智能在民用和军事应用中的使用不断扩大,这种观点冲突可能会成为一个日益突出的问题,需要行业和政府利益相关者之间采取细致入微的解决方案和协作。
最终,这场辩论的核心问题是,即使面对巨大的压力或冲突,Anthropic 和其他人工智能公司是否可以相信能够保持其技术的完整性和可靠性。该公司的坚决否认和提高透明度的提议表明希望减轻这些担忧,但随着人工智能行业的不断发展及其在国家安全中的作用不断扩大,这场冲突的长期影响仍有待观察。
来源: Wired


