OpenAI 差点因加拿大枪手的聊天记录而报警

OpenAI 的安全工具标记了 Jesse Van Rootselaar 在枪击事件发生前在 ChatGPT 上的暴力对话,引发了有关 AI 监控的争论。
OpenAI 发现自己处于激烈的内部争论的中心,因为他们的人工智能监控系统标记了涉及 Jesse Van Rootselaar 的令人不安的对话,后者后来卷入了加拿大的枪击事件。该公司的安全工具旨在检测其 ChatGPT 平台的潜在滥用情况,识别出用户交互中描述枪支暴力场景的相关模式。这一揭露引发了更广泛的讨论,讨论人工智能公司在其系统检测到用户的潜在危险行为时是否有责任进行干预。
该事件凸显了人工智能安全团队每天在监控数百万个对话中是否存在有害意图迹象时所面临的复杂道德环境。 Van Rootselaar 与 ChatGPT 的互动包含对涉及枪支的暴力场景的详细描述,这在 OpenAI 复杂的监控基础设施内触发了多个警报。这些由机器学习算法驱动的自动化系统旨在识别可能表明现实世界暴力、自残或其他危险活动计划的模式。
据知情人士透露,OpenAI 的安全团队进行了广泛的审议,以确定标记的对话是否构成向执法机构发出警报的充分理由。据报道,讨论涉及公司内部多个部门,包括法律顾问、道德专家和高级管理层。争论的焦点是如何平衡用户隐私权与潜在的公共安全问题,随着人工智能平台将其影响范围扩展到日常通信,这种困境变得越来越普遍。
该公司的内容审核协议建立在将自动检测系统与人工审核流程相结合的多层方法之上。当识别出潜在有害内容时,经过培训的安全专家会对其进行评估,以评估现实世界造成伤害的可能性。在 Van Rootselaar 的案例中,内容非常严重,需要认真考虑外部干预,尽管由于隐私政策,他的对话的具体细节仍然保密。
OpenAI 安全监控背后的技术基础设施代表了人工智能行业最先进的系统之一。该公司采用经过专门训练的自然语言处理技术来识别相关的语言模式,包括暴力行为的详细计划、武器的获取以及伤害他人意图的表达。这些系统实时处理对话,标记符合预定风险阈值的内容以供人工审核。
行业专家指出,Van Rootselaar 案例体现了人工智能公司随着平台变得更加复杂和广泛采用而面临的日益严峻的挑战。大型语言模型能够进行详细的上下文对话,这意味着用户可以比在传统社交媒体平台上透露更多的个人信息和意图。人类与人工智能交互的日益密切,为平台运营商识别和应对潜在威胁创造了新的责任。
法律学者指出,这种情况引发了前所未有的问题,即人工智能公司对其用户和公众所负有的注意义务。与传统社交媒体平台(用户生成的内容主要与其他用户共享)不同,ChatGPT 对话涉及与人工智能系统的直接交互,该系统可能会提供可能助长有害活动的信息或指导。这种独特的动态在平台与任何由此产生的现实世界后果之间建立了更直接的关系。
据报道,OpenAI 内部的辩论包括与专门从事人工智能治理的外部法律专家和伦理学家进行广泛协商。这些讨论研究了各种场景和先例,包括科技公司通过向当局发出威胁通信警报来成功防止暴力的案例。然而,他们也考虑了误报的可能性,以及激进的干预政策可能对寻求帮助或参与创意写作练习的合法用户产生的寒蝉效应。
隐私倡导者对人工智能公司出于执法目的监控用户对话的影响表示担忧。他们认为,这种做法可能会创建一个远远超出安全监控初衷的监控基础设施。电子前沿基金会和类似组织呼吁就人工智能公司何时以及如何与当局共享用户数据制定透明的政策,强调需要有明确的法律框架来管理这些决定。
尽管 OpenAI 内部存在争议,但涉及 Van Rootselaar 的加拿大枪击事件最终还是发生了,这引发了人们对早期干预是否可以阻止暴力事件的质疑。消息人士称,该公司的决策过程虽然周密,但可能因缺乏处理此类情况的明确行业标准而受到阻碍。由于缺乏针对人工智能检测到的威胁的既定协议,这意味着公司通常必须在没有明确指导或先例的情况下做出关键决策。
用于内容审核的机器学习算法不断发展,检测潜在暴力的微妙指标的能力变得更加复杂。据报道,OpenAI 的系统使用情感分析、行为模式识别和上下文理解等先进技术来评估标记内容的严重性。这些工具不仅可以识别明确的威胁,还可以识别更微妙的指标,例如不断升级的攻击模式或对暴力方法的详细研究。
该事件促使人们呼吁制定有关人工智能安全监控和干预协议的全行业标准。技术政策专家认为,个别公司不应独自承担就检测到的威胁何时需要执法部门介入做出决定的责任。相反,他们主张建立涉及多个利益相关者的协作框架,包括心理健康专业人员、执法机构和公民自由组织。
OpenAI 对争议的回应强调了他们对用户安全的承诺,同时承认平衡竞争利益的复杂性。公司代表表示,他们正在审查其内部流程,并考虑根据 Van Rootselaar 案件的经验教训更新其安全协议。这些潜在的变化可能包括针对高风险情况更加简化的决策程序以及加强与外部专家的合作。
此案例的更广泛影响超出了 OpenAI 范围,扩展到整个人工智能行业。随着人工智能系统变得更加强大和广泛部署,类似事件发生的频率可能会越来越高。这一现实促使行业领导者讨论是否需要标准化的威胁检测和响应方法,其中可能包括有关行为模式和协调响应协议的共享数据库。
心理健康专业人士也参与了这场辩论,指出通过人工智能平台进行暴力幻想或计划的个人可能正在寻求帮助或处理困难的情绪。他们认为,惩罚性反应或立即执法介入可能并不总是最有效的干预措施。相反,他们主张采取包括心理健康资源、降级技术和治疗干预措施在内的方法,作为刑事司法应对措施的替代或补充。
Van Rootselaar 案还凸显了人工智能安全挑战的全球性。随着世界各地的用户访问 ChatGPT 等平台,公司必须应对不同的法律框架、文化规范和执法能力。在一个司法管辖区构成适当响应的内容在另一个司法管辖区可能不充分或过度,从而使制定一致的安全协议的工作变得复杂。
随着人工智能行业的不断成熟,Van Rootselaar 事件成为开发更有效的用户安全和威胁预防方法的重要案例研究。从 OpenAI 内部辩论和后续事件中汲取的经验教训可能会影响未来几年的政策决策、监管方法和行业最佳实践。我们面临的挑战仍然是在保护个人隐私权和防止潜在暴力之间找到适当的平衡,同时保持数百万用户日常依赖的人工智能技术的有益方面。
来源: TechCrunch


