人工智能公司 Anthropic 在法庭大战中挑战五角大楼的人工智能限制

Anthropic 在旧金山一家法院与美国五角大楼较量,指控其对该公司拒绝放松人工智能军事用途安全措施进行非法报复。
在一场关于人工智能 (AI) 未来的高风险冲突中,人工智能研究公司 Anthropic 踏入竞技场对抗美国五角大楼的强大力量。该公司指责五角大楼在拒绝放松其严格的人工智能军事用途安全限制后进行非法报复。
这场对决正在旧金山法庭上演,Anthropic 正在挑战五角大楼禁止该公司参与其人工智能项目和融资机会的决定。在此之前,Anthropic 坚定地致力于负责任的人工智能开发,拒绝在道德原则上妥协。
争论的核心是 Anthropic 认为,五角大楼要求不受限制地使用其人工智能技术,这将损害该公司为确保其创造物的安全和合乎道德的部署所做的努力。 Anthropic 长期以来一直处于人工智能联盟运动的最前沿,其目标是开发符合人类价值观和兴趣的人工智能系统。
“出于良心,我们不能向军队提供未经严格安全性和一致性测试的人工智能系统,”Anthropic 联合创始人兼首席科学家 Dario Amodei 说道。 “风险太大了,我们有责任对公众确保我们的技术得到负责任的使用。”
另一方面,五角大楼认为 Anthropic 的立场阻碍了其利用人工智能最新进展实现国家安全目的的能力。长期以来,军方一直是人工智能发展的推动力量,对将这些技术应用于从自主武器系统到预测分析等广泛应用有着浓厚的兴趣。
五角大楼发言人在一份声明中表示:“我们认为,Anthropic 拒绝与五角大楼合作是他们玩忽职守支持保卫国家的职责。” “他们引用的安全和道德考虑是有效的,但不能用作避免与军方合作的全面借口。”这场法庭之争的结果可能会对人工智能在民用和军事领域的未来开发和部署产生深远的影响。 Anthropic 的立场得到了人工智能道德界的广泛支持,他们认为该公司的原则立场是反对人工智能不受控制的军事化的重要堡垒。
“这是人工智能伦理运动的关键时刻,”领先的人工智能政策专家 Kate Woolverton 说道。 “在本案中做出的决定将形成护栏和保障措施,这些护栏和保障措施将控制人工智能的使用方式,不仅是军队,而且是整个社会。”
随着法律斗争的继续,世界将密切关注人类与五角大楼之间的这场高风险的对决如何展开,负责任的人工智能开发的未来悬而未决。
来源: Al Jazeera


