人工智能初创公司 Anthropic 挑战五角大楼,坚守道德界限

人类拒绝五角大楼的新条款,维持其反对致命自主武器和大规模监视的立场。这场对峙凸显了国防需求和人工智能道德之间的紧张关系。
在一场高风险的对峙中,人工智能公司Anthropic拒绝屈服于五角大楼的最新要求,坚定地坚持其关于致命自主武器和对美国人进行大规模监视的道德原则。距离关键截止日期还有不到 24 小时,这场意志冲突代表了公开声明、社交媒体帖子和幕后谈判的戏剧性交流的高潮。
问题的核心是国防部长 Pete Hegseth 推动军方与包括 Anthropic 在内的各个人工智能实验室之间的现有合同重新谈判。然而,由达里奥·阿莫迪领导的该公司已经划定了底线,拒绝放弃两条关键的道德红线:不开发致命自主武器,不对美国公民进行大规模监视。
{{IMAGE_PLACEHOLDER}}这场冲突凸显了五角大楼对先进人工智能能力的渴望与人工智能公司和广大公众提出的道德担忧之间持续存在的紧张关系。 Anthropic 拒绝在这些基本问题上妥协,凸显了该公司对负责任的人工智能开发的承诺,以及国家安全需求与保护个人隐私和人类监督之间具有挑战性的平衡。
与 Anthropic 的对峙紧随另一家著名人工智能研究组织 OpenAI 的类似情况,该组织也面临着来自国防部的压力,要求提供对其人工智能系统的不受限制的访问。人工智能行业对这些要求的抵制反映出人们越来越意识到不受限制的人工智能发展的潜在危险,特别是在自主武器和大规模监视领域。
{{IMAGE_PLACEHOLDER}}随着这场冲突的展开,它引发了更广泛的问题,包括人工智能在国防中的作用、人工智能发展的道德界限,以及是否需要明确的监管和监督以确保技术进步符合社会价值观和人权。 Anthropic 与五角大楼对峙的结果可能会对人工智能治理的未来以及安全与个人自由之间的平衡产生深远的影响。
来源: The Verge


