避免无人监督的人工智能杀手的危险:人类与五角大楼的对峙

由于 Anthropic 抵制五角大楼无限制使用其人工智能技术的要求,整个行业的技术工作者都在努力应对军事合同的道德规范和自主武器的风险。
Anthropic 是一家领先的人工智能研究公司,发现自己与美国陷入了高风险的僵局。国防部(DoD)。五角大楼要求不受限制地使用 Anthropic 的技术,包括大规模监视和全自动致命武器。在公开声明和威胁中,整个行业的科技工作者正在审查自己公司的政府和军事合同,想知道他们正在帮助建设的未来。
虽然国防部花了数周时间与 Anthropic 谈判以取消其道德保障措施,但这家人工智能公司坚决拒绝遵守。 Anthropic 的立场反映出科技界对先进人工智能系统可能被滥用的日益不安,特别是在自主武器领域。

围绕开发和部署的争论无人监督的杀手机器人已经风靡多年。该技术的支持者认为,它可以减少人员伤亡并提高军事行动的效率。然而,批评者警告说,此类系统缺乏必要的人类判断和问责制,引发了严重的道德和法律问题。
Anthropic 对五角大楼要求的抵制与许多技术工作者的观点一致,他们对不受控制的人工智能发展的后果越来越警惕,特别是在军事应用方面。他们担心他们帮助创造的技术可能会被用来开发在没有人类监督的情况下运行的武器,这可能会导致毁灭性的后果。

Anthropic 与国防部是科技行业内关于人工智能技术的适当使用的更广泛辩论的一部分。当像 Anthropic 这样的公司努力应对这些复杂的道德困境时,他们必须在对创新的承诺与社会责任感以及防止其创造物被滥用的需要之间取得平衡。
这场僵局的结果可能会对人工智能发展的未来及其与军队的关系产生深远的影响。随着公众和政策制定者继续审视这些问题,科技行业必须找到一种方法来穿越道德雷区,并确保利用人工智能的力量造福人类,而不是创造无人监督的杀手机器人。
最终,人类与五角大楼的对峙凸显了对强大的道德框架和透明治理的迫切需要,以指导先进人工智能系统的开发和部署。随着技术的不断发展,行业、政策制定者和公众必须共同努力,以确保在不损害我们的核心价值观和原则的情况下实现人工智能的承诺。
来源: The Verge


