揭秘美伊人工智能战争争议

探索五角大楼和 Anthropic 之间关于在军事行动中使用人工智能的复杂争端,这一话题引发了国际辩论。
美国政府在战争中使用人工智能 (AI) 引发了激烈的争论,特别是在针对伊朗的应用方面。半岛电视台的 Linh Nguyen 深入探讨了围绕五角大楼决定针对伊斯兰共和国部署被禁止的人工智能系统的争议,引发了人们对此类行为的道德和法律影响的担忧。
问题的核心在于五角大楼依赖著名的人工智能研究公司 Anthropic 来开发和部署用于军事行动的高度复杂的人工智能系统。据报道,该系统旨在收集情报并协助战略决策,用于对付伊朗的方式违反了在战争中使用人工智能的国际法和规范。
五角大楼和 Anthropic 之间的争端集中在 Anthropic 以道德问题为由,拒绝为军事应用开发人工智能系统提供进一步援助。 Anthropic 的联合创始人达里奥·阿莫迪 (Dario Amodei) 一直直言不讳地反对在战争中使用人工智能,认为这对平民构成重大风险,并破坏了国际法原则。
另一方面,五角大楼认为,在军事行动中使用人工智能是增强国家安全和保护美国利益的必要且合法的工具。他们认为,Anthropic 开发的系统是收集情报和扰乱伊朗行动的关键资产,并且其使用完全符合现有法律法规。
这场辩论还吸引了人工智能和技术行业的其他知名人士参与,他们对五角大楼行为的道德和法律影响发表了看法。一些人认为,在战争中使用人工智能开创了危险的先例,并为进一步滥用打开了大门,而另一些人则捍卫了军方利用先进技术实现国家安全目的的权利。
随着争议不断展开,如何在军事行动中监管和使用人工智能仍然是一个复杂且有争议的问题。赌注很高,这场争端的结果可能会对人工智能技术的未来及其在全球安全中的作用产生深远的影响。
最终,关于五角大楼针对伊朗使用人工智能的争论凸显了迫切需要制定明确的、全球协调的政策和法规来管理军事环境中人工智能的开发和部署。随着技术的不断进步,国际社会必须应对其带来的道德和法律挑战,确保在战争中使用人工智能仍然在国际法的范围内,并维护人权和尊严的原则。
来源: Al Jazeera


