美国政府测试谷歌、微软、xAI 的人工智能模型

主要人工智能公司与商务部之间新的自愿安全测试协议扩大了拜登政府的人工智能安全举措。
美国政府宣布大幅扩展其人工智能安全测试计划,汇集谷歌、微软和xAI等领先科技公司,对其最新人工智能模型进行综合评估。这些新协议代表了拜登政府期间发起的努力的延续和加强,以确保先进人工智能系统在广泛部署之前满足关键的安全标准。
作为这些举措的主要联邦协调员,商务部已与这些行业巨头正式建立合作伙伴关系,对其最前沿的模型进行严格的安全评估。这种协作方法反映了政府官员和行业领导者之间日益增长的共识,即随着人工智能技术变得越来越强大并融入到整个社会的关键应用中,主动安全测试至关重要。这些协议的自愿性质表明,主要科技公司愿意建设性地参与监管监督,同时保持创新动力。
这些新的测试协议直接建立在拜登政府期间建立的基础之上,该基础开创了自愿人工智能安全承诺框架。这项早期的举措汇集了领先的公司,共同致力于负责任的人工智能开发,重点关注透明度、安全性和风险缓解。现在的扩张涵盖了更多的公司和更复杂的测试方法,反映了人工智能领域的快速发展和正在开发的模型日益复杂。
Google 是全球最大的科技公司之一,拥有强大的人工智能研发能力,它积极参与了这些安全测试框架。该公司的参与凸显了评估其 DeepMind 部门和其他研究计划开发的模型的重要性。微软通过与 OpenAI 和内部研究部门的合作,在人工智能能力方面投入了大量资金,在企业级人工智能部署以及将人工智能集成到关键业务系统相关的独特风险方面拥有丰富的专业知识。
xAI 是埃隆·马斯克 (Elon Musk) 创立的新兴人工智能公司,是接受联邦安全测试的公司集团中的新进入者。尽管与谷歌和微软相比,xAI 是一个年轻的组织,但它已经迅速开发出了复杂的人工智能模型,这些模型值得与更成熟的科技巨头的模型进行同等程度的审查和评估。将xAI纳入这些安全测试协议标志着政府对该公司技术能力及其在塑造人工智能发展未来中的作用的认可。
安全测试框架涵盖人工智能系统评估的多个维度,包括评估潜在偏见、安全漏洞以及防止滥用的稳健性。联邦评估人员检查这些模型如何处理边缘情况,它们是否在某些条件下产生有害内容,以及它们的决策过程是否可以得到人类监督者的充分审计和理解。这种全面的方法承认人工智能安全不是一个单一的指标,而是一个多方面的挑战,需要在多个维度上进行仔细检查。
商务部强调,这些测试协议完全是自愿的,这反映了该部的信念,即通过伙伴关系而不是监管授权来实现行业合作才是最有效的。这种方法使公司能够在进行内部安全评估的方式上保持灵活性,同时仍然满足商定的标准并参与政府协调的评估流程。自愿框架还鼓励公司超越最低要求,在私营部门内培育安全第一的发展文化。
这些协议代表了拜登政府对人工智能治理务实方针的延续,该方针寻求在安全监督的需求与保持美国在快速发展的人工智能领域的竞争力的愿望之间取得平衡。联邦官员已经认识到,过于严格的监管可能会减缓创新,并将这一关键技术领域的领先地位拱手让给国际竞争对手。自愿测试框架实现了中间立场,既确保了基本的安全标准,又不会施加可能对美国公司不利的繁重监管负担。
测试协议专门解决了随着大型语言模型和其他先进人工智能系统变得更加强大和广泛部署而出现的问题。模型幻觉、有偏差的输出和潜在的安全漏洞事件促使政府和行业更加重视安全。这些测试协议确保在模型向公众发布或集成到医疗保健、金融和政府的关键应用程序之前识别并解决此类问题。
人工智能发展的国际竞争明显加剧,中国、欧盟、英国等国家都在制定自己的人工智能治理框架。美国的自愿测试方法旨在保持该国的竞争优势,同时确立自己作为人工智能技术负责任的管理者的地位。通过证明美国公司能够负责任地开发强大的人工智能系统,政府希望制定全球标准并保持美国在这一变革性技术方面的领导地位。
商务部计划公开分享这些安全测试过程的结果,但要小心避免泄露可能危及安全或专有系统的信息。这种透明度承诺有多种目的:它建立了公众对已部署的人工智能系统安全性的信心;它提供了可以推动全行业改进的宝贵基准数据;它表明了政府在尊重合法商业利益的同时进行监督的承诺。安全评估汇总结果和见解的发布有助于建立整个行业的最佳实践。
展望未来,政府预计这些测试协议将随着人工智能技术的不断进步和新风险的出现而不断发展。该框架的设计具有足够的灵活性,可以适应新的测试方法并解决初始协议正式确定时未预见到的新挑战。这种自适应方法认识到人工智能安全是一个持续的过程,而不是一次性的合规性检查,需要随着技术格局的变化而不断保持警惕和调整。
这三大公司参与扩大的安全测试计划向更广泛的人工智能行业发出了强烈的信号,表明负责任的开发实践的重要性。其他开发先进人工智能系统的公司预计也将面临类似的压力,要求参与政府安全评估或开发同等的内部安全计划。这种同侪压力效应可能会推动整个人工智能行业广泛采用严格的安全实践,甚至在没有正式受政府协议约束的公司中也是如此。
联邦官员强调,这些测试协议只是管理人工智能风险并确保该技术造福社会同时最大限度减少潜在危害的更广泛战略的一个组成部分。其他努力包括资助人工智能安全研究、支持技术安全标准的制定,以及与行业利益相关者就新出现的挑战进行持续对话。这种综合方法承认,任何单一干预措施都无法完全解决先进人工智能系统带来的复杂挑战。
随着人工智能继续深入融入美国社会和全球经济,强大的安全框架的重要性怎么强调都不为过。商务部和领先的人工智能公司之间的这些新测试协议代表着在确保负责任地开发和安全部署强大的人工智能系统方面向前迈出了重要一步。通过在政府和行业之间保持开放的沟通渠道,同时建立明确的安全标准,美国正在努力实现人工智能的巨大潜力,同时防范其风险。
来源: BBC News


