美国与科技巨头达成人工智能安全协议

美国政府宣布与谷歌 DeepMind、微软和 xAI 达成协议,在公开发布之前审查人工智能模型,重点关注国家安全风险。
美国政府与全球最具影响力的三家科技公司达成了具有里程碑意义的协议,在确保先进人工智能技术的安全部署方面迈出了重要一步。 Google DeepMind、微软和xAI已承诺允许联邦监管机构在其尖端人工智能模型面向公众之前对其进行安全审查。这种协作方法代表了技术创新和国家安全考虑之间的重要交叉点,为政府和私营部门如何共同努力减轻快速发展的人工智能领域中的新风险奠定了先例。
美国商务部下属机构人工智能标准与创新中心 (CAISI) 于周二正式宣布了这些突破性协议。该倡议强调了联邦政府致力于了解下一代人工智能技术的真实能力和潜在漏洞,同时维护美国的利益。通过建立这一审查框架,商务部旨在确保强大的新模型在部署前经过严格的安全测试,使政策制定者和安全专家能够在潜在风险影响数百万用户之前识别并解决它们。
这些协议的核心是对国家安全官员最关心的特定威胁类别进行重点审查。 国家安全测试过程将集中于识别可能被恶意行为者利用的潜在网络安全漏洞、与生物武器或病原体开发相关的生物安全风险,以及滥用人工智能系统可能引起的化学武器威胁。这三个领域代表了情报机构和国防专家确定的最紧迫的国家安全问题,反映了多年来对先进人工智能功能如何可能被武器化或滥用的分析。
考虑到人工智能发展步伐的加快以及推动该领域创新的竞争压力,这些协议的时机尤为重要。主要科技公司一直在竞相开发日益强大的语言模型和生成式人工智能系统,但对其安全影响的外部监督往往有限。通过建立正式的发布前审查渠道,商务部创建了一种机制,将联邦专业知识和安全考虑因素注入开发渠道,而不会不必要地减缓技术进步。这种平衡的方法旨在保护国家利益,同时尊重使美国公司在人工智能开发领域处于全球领先地位的创新生态系统。
根据CAISI的官方声明,这些合作是技术领域和国家安全领域“关键时刻的公共利益”的重要工作。该机构强调,了解强大的新型人工智能模型的全部功能是保护美国安全利益、关键基础设施和公民安全的基础。随着前沿人工智能系统变得越来越复杂和强大,其滥用的潜在后果也会成比例升级,使得主动安全措施比以往任何时候都更加重要。
与这三大人工智能开发商的协议代表了私营部门与联邦当局合作的重大承诺。微软在 OpenAI 上投入巨资并开发了自己的先进人工智能功能,带来了数十年管理企业规模技术部署和安全协议的经验。 Google DeepMind 被广泛认为是世界领先的人工智能研究实验室之一,在开发复杂的机器学习系统和了解其潜在能力和局限性方面贡献了无与伦比的专业知识。 xAI 由埃隆·马斯克 (Elon Musk) 创立,专注于开发高级推理系统,为人工智能开发领域的新晋但雄心勃勃的参与者提供了另一种视角。
这个协作框架解决了人工智能治理中长期存在的挑战:如何平衡安全监督的需求与维持竞争性创新技术部门的必要性。政策制定者一直在努力制定监管方法,以免无意中扼杀有益的创新或将海外开发活动推向监管不那么严格的司法管辖区。通过与领先公司建立自愿协议而不是实施强制性法规,联邦政府找到了一个务实的中间立场,既鼓励合作,又保持美国的技术领先地位。
这些协议中概述的审查流程可能会为如何大规模进行人工智能安全奠定重要的先例。随着这些公司继续开发功能越来越强大的系统,从安全审查中获得的见解将有助于政府了解新出现的风险,并帮助制定未来的政策决策。通过此过程生成的数据和调查结果可能最终会影响联邦机构未来几年如何处理人工智能监管、监督和投资决策。
该公告还反映出政府官员越来越认识到,有效的人工智能治理需要与处于人工智能发展前沿的公司持续合作。这种主动方法不是仅仅依赖于对已经存在的系统进行回顾性分析,而是允许安全专家在开发阶段识别和解决问题,此时干预措施通常是最有效的。这种向协作性、前瞻性监管的转变代表了政府新兴技术治理方法的成熟。
展望未来,这些协议可以作为扩大政府与行业在人工智能安全和安保问题上合作的模板。随着越来越多的公司进入先进的人工智能市场,并且能力不断快速进步,类似的安排可以扩展到其他开发人员,从而创建一个更广泛的协调安全审查生态系统。这一初步努力的成功或失败可能会影响自愿合作模式是否仍然可行,或者是否需要更正式的监管结构来确保对前沿人工智能系统的充分监督。
商务部的声明反映了拜登政府对确保美国保持技术领先地位和对关键新兴技术进行有效监督的更广泛承诺。通过在不诉诸严厉监管的情况下达成这些协议,联邦机构已经证明,合作方法可以有效解决合法的安全问题,同时保留使美国科技行业具有全球竞争力的创新激励措施。随着人工智能技术继续以前所未有的速度发展,保持创新与安全监管之间的平衡仍将是政策制定者和行业领导者面临的最重要挑战之一。
来源: The Guardian


