白宫探索新的人工智能模型监管框架

白宫正在为人工智能模型制定更严格的监督机制,包括公开发布之前的潜在审查程序。
白宫正在积极探索对人工智能开发采取更全面的监管方法,官员们正在考虑实施更严格的人工智能模型法规,这可能从根本上重塑新系统推向市场的方式。据熟悉政府正在进行的审议的消息人士透露,已经成立了一个负责人工智能监督的工作组,在新兴模型获得公众许可之前对其进行评估,这标志着政府人工智能治理方式的重大转变。
这一潜在的监管框架代表了联邦政府为建立正式的人工智能模型审查程序和监督机制而做出的最实质性努力之一。拟议的系统不会允许开发人员在没有政府审查的情况下发布模型,而是创建一个结构化审查流程,旨在识别潜在风险并确保符合新兴安全标准。此举正值人工智能行业经历爆炸性增长,众多公司竞相开发和部署日益强大的模型。
政府官员对先进人工智能系统在没有足够保障或问责措施的情况下迅速扩散表示越来越担忧。拟议的人工智能监管框架将作为开发流程中的关键检查点,使专家能够在新模型接触到更广泛的公众之前评估新模型是否会带来与错误信息、偏见、安全漏洞或其他潜在危害相关的风险。这种先发制人的方法与历史上管理新兴技术的被动监管模式有很大不同。
专注于人工智能治理的工作组预计将包括来自各个政府机构的代表,包括科技政策办公室、商务部以及其他在技术和政策事务方面具有专业知识的相关部门。这些官员的任务是制定指导审查过程的详细标准,确定哪些模型需要审查并制定评估时间表。该小组还在研究其他行业的成功监管模式,以确定可适用于人工智能监管的最佳实践。
监管框架的主要考虑因素包括确定何时强制审查的明确阈值、定义模型必须满足的具体技术和安全标准,以及确定审查过程将如何影响开发时间表和创新。官员们还面临着制定足够严格的法规来保护公众的挑战,同时保持足够的灵活性以适应人工智能技术领域快速的技术进步和竞争。
该提案在技术圈内引起了广泛讨论,一些行业领导者对合理的监管表示谨慎支持,而其他人则担心潜在的繁重合规要求。开发大型语言模型和其他先进人工智能系统的公司表示,他们愿意与监管机构合作制定合理的标准,前提是此类监管不会抑制创新或为老牌企业相对于新兴初创企业创造不公平的竞争优势。
国际因素也成为政府监管思维的重要因素,因为包括欧盟在内的其他国家已经开始实施自己的人工智能监管措施。全球人工智能监管格局正在迅速发展,政策制定者认识到,不同司法管辖区之间不协调的方法可能会产生分散的标准,给跨国公司带来负担。白宫注重保持美国在人工智能领域的竞争力,同时也树立负责任的治理先例。
人工智能安全和政策专家普遍欢迎政府加大对监督机制的关注,认为主动监管优于被动危机管理。他们指出,在之前的技术周期中,监管框架落后于创新,导致意想不到的后果和公共伤害。通过在人工智能开发周期的早期建立审查程序,政府理论上可以在问题升级为更大的社会问题之前预防问题。
实施此类监管框架的时间表仍不确定,白宫工作组仍在继续审议并寻求技术行业、学术机构和民间社会组织的利益相关者的意见。初步讨论表明,任何正式的监管机制可能需要几个月的时间才能完全制定,尽管一些临时指导或自愿标准可能会更快制定以解决眼前的问题。
在几起备受瞩目的事件以及人工智能研究人员对日益强大的系统相关的潜在风险提出担忧之后,公众对人工智能模型问责制和安全性的兴趣日益浓厚。国会两党议员均表示有兴趣建立基线监管框架,这表明两党可能支持某种形式的政府监督。行政部门行动和国会利益的这种融合表明,有意义的人工智能监管可能正在成为真正的政策优先事项。
拟议的监管方法可能会根据不同类型的人工智能系统的潜在影响和风险状况来区分它们。具有更广泛社会影响或更高潜在风险的系统可能会面临更严格的审查要求,而不太敏感的应用程序可能只需要最少的监督。这种分层方法可以帮助监管机构将资源集中在最关心的领域,同时避免对低风险创新造成过多的官僚负担。
展望未来,随着人工智能不断发展并更深入地融入医疗保健、金融和国家安全等关键领域,建立功能齐全的人工智能审查机制可以为更全面的治理框架奠定基础。随着社会努力应对人工智能开发和部署的深远影响,白宫目前的举措可能最终代表着一个基础性的一步,这个生态系统可能会成为一个更复杂的监管生态系统。
来源: Engadget


