美国启动人工智能巨头安全测试计划

美国商务部与谷歌、微软和 xAI 合作,在拜登政府框架的基础上进行新的人工智能模型安全评估。
美国政府宣布了一项重大新举措,旨在评估领先技术公司开发的先进人工智能模型的安全性。根据商务部与谷歌、微软和 xAI 等主要人工智能开发商之间新达成的协议,联邦政府将对下一代人工智能系统进行全面的安全测试协议。这些安排代表了上届政府任期内最初建立的监督机制的延续和扩展。
测试框架直接建立在拜登政府期间达成的基础协议之上,该协议旨在为人工智能模型开发建立基线安全标准。本届政府没有拆除这些结构,而是选择完善和扩展它们,作为其更广泛的技术政策议程的一部分。这种方法反映出两党日益认识到,可能需要一定程度的政府监督,以确保负责任地开发强大的人工智能系统并在经济的关键部门安全部署。
美国总统唐纳德·特朗普在上任的头几周签署了一系列行政命令,旨在塑造其政府的人工智能治理方法。这些命令共同构成了官员们所说的“人工智能行动计划”的基础,特朗普政府官员将这一举措描述为旨在“减少监管负担”,同时维持基本的安全监督。该计划强调消除可能阻碍创新的不必要的官僚障碍,同时保留政府有针对性地参与评估最关键的安全问题。
商务部在这一监督过程中的作用对于联邦人工智能政策实施变得越来越重要。该部门是负责促进这些安全测试协议并确保参与公司达到既定基准的主要联邦实体。商务部官员表示,这些测试协议将重点评估先进的人工智能模型是否在网络安全、生物研究和其他敏感领域构成潜在风险,滥用这些模型可能会造成严重后果。
谷歌、微软和 xAI 代表了美国目前正在开发的大型语言模型和其他先进人工智能系统的三个最著名的开发商。谷歌的人工智能研究部门已经开发出像 Gemini 这样的模型,而微软则大力投资 OpenAI 合作伙伴关系并开发自己的人工智能功能。 xAI 是埃隆·马斯克 (Elon Musk) 的新人工智能企业,因其快速开发具有竞争力的大型语言模型而受到关注。每家公司都为其人工智能开发流程带来了不同的方法、架构和安全理念。
这些协议的自愿性质是当前监管方法的一个显着特征。联邦官员没有通过立法或正式监管来强制政府要求,而是通过与公司本身直接接触来协商这些测试安排。这种方法符合特朗普政府所宣称的对以行业为主导的治理机制并辅以政府监督的偏好,而不是官员认为可能扼杀创新的自上而下的监管授权。
这些协议下采用的具体安全测试方法将检查人工智能模型如何响应对抗性提示、试图绕过安全准则以及其他潜在的误用场景。评估人员将评估模型是否可以被操纵以生成有害内容或协助危险活动。这些测试代表了在人工智能系统广泛部署并被公众或潜在恶意行为者访问之前识别其漏洞的努力。
拜登政府框架的连续性表明,政府监督的某些核心原则已经获得了两党的支持。上届政府奉行一种宽松的监管方法,以自愿测试协议和行业标准制定为中心,而不是规定性法规。事实证明,该框架比国会中流传的更激进的监管提案更容易受到科技公司的欢迎,但它仍然保持了政府对安全评估流程的有意义的参与。
这些协议的时机反映了促进人工智能创新和解决合法安全问题之间持续存在的紧张关系。科技行业一直警告称,过于繁重的监管可能会将人工智能的海外发展推向安全要求不那么严格或监管机制较弱的国家。联邦官员试图通过维持安全监督,同时最大限度地减少新人工智能功能开发和部署过程中的官僚摩擦来平衡这些担忧。
行业观察家指出,这种监管方式可能会影响其他国家如何构建自己的人工智能治理框架。随着美国、欧盟和其他主要经济体制定不同的人工智能监管方法,国际运营的公司必须适应多种监管制度。商务部强调在保持安全监督的同时保留创新能力,这有可能成为人工智能治理标准国际协调的典范。
人工智能安全评估流程可能会涉及红队演习,独立评估人员试图找出人工智能系统安全机制中的弱点。这些练习模拟恶意行为者如何尝试利用漏洞,帮助开发人员了解哪些风险需要额外缓解。这些评估的结果将有助于公司内部实践和联邦政府对整个行业人工智能安全现状的了解。
展望未来,这些测试协议可能会扩大到包括更多的人工智能开发人员,并涵盖新类别的人工智能模型和应用程序。随着人工智能技术持续快速发展以及新公司进入先进人工智能开发领域,商务部可能需要调整其监管机制。当前框架的设计似乎具有灵活性,可以适应技术变革和可能尚未完全理解的新出现的安全问题。
各个政治领域的利益相关者对政府人工智能监管的适当级别和性质表达了不同的观点。虽然一些支持者认为,有必要采取更强有力的强制性法规来防止有害的人工智能发展,但其他人则认为,自愿方法可以保留使美国成为人工智能研究全球领导者的创新激励措施。商务部的协议是通过保持政府参与同时尊重行业对合作而非对抗治理方法的偏好来解决这一问题的尝试。
来源: BBC News


