OpenAI 首席执行官 Sam Altman 承认无法控制军队人工智能的使用

OpenAI 首席执行官 Sam Altman 透露,他的公司对五角大楼如何使用其人工智能产品没有发言权,这在军方越来越多地采用人工智能的情况下引起了道德方面的担忧。
OpenAI 是一家人工智能研究公司,它发现自己处于有关军队使用人工智能技术日益激烈的争论的中心。在最近的一份披露中,首席执行官萨姆·奥尔特曼 (Sam Altman) 承认,他的公司对五角大楼决定如何在军事行动中使用其人工智能产品没有任何控制权。
奥尔特曼发表声明之际,美国军方对人工智能系统的依赖日益增加,以及一些人工智能工作者对其技术可能用于战争的潜在道德担忧提出了道德担忧。在与 OpenAI 员工会面时,Altman 强调,在政府使用其人工智能的问题上,公司无权做出“运营决策”。
据彭博社和CNBC报道,Altman 告诉他的员工,“你无权做出运营决策”。这一承认突显了人工智能界对其工作用于军事目的的道德影响日益感到不安,他们可能几乎无法控制军事目的。
五角大楼对人工智能的采用一直在增加,该技术正在探索广泛的应用,从自主武器到用于情报收集的预测分析。这一趋势引起了一些人工智能专家和工作者的担忧,他们担心自己的创造物可能被用于破坏性目的,可能导致平民伤亡或加剧全球紧张局势。
OpenAI 成立于 2015 年,是世界领先的人工智能研究组织之一,以开发 GPT-3 和 DALL-E 等高级语言模型而闻名。该公司的产品已被包括美国军方在内的商业和政府实体广泛采用。
Altman 的承认凸显了人工智能公司在其技术变得更加普遍和影响力的同时所面临的复杂道德困境。虽然 OpenAI 可能无法直接控制五角大楼对其人工智能的使用,但该公司在支持这些军事应用方面的作用引起了人们对人工智能负责任的开发和部署的合理担忧。
随着人工智能行业的不断发展和发展,关于其在军事领域使用的道德影响的争论可能会加剧。像 OpenAI 这样的公司将面临越来越大的压力,需要解决这些问题,并努力确保其技术的使用符合人道主义原则并最大限度地减少潜在伤害。
来源: The Guardian


