主要人工智能实验室对 Mercor 数据泄露事件做出回应,暴露行业秘密

在安全事件可能泄露了有关其模型训练过程的敏感细节后,领先的人工智能公司暂停了与 Mercor 数据供应商的合作。
人工智能行业的发展令人担忧,主要的人工智能实验室已暂停与领先数据供应商 Mercor 的合作,因为该公司的安全漏洞可能会暴露有关他们如何训练人工智能模型的关键细节。
该事件仍在调查中,可能会泄露有关世界上一些最先进的人工智能系统内部运作的敏感信息。此类数据受到领先的人工智能研究实验室的严密保护,因为它代表着宝贵的知识产权,也是其竞争优势的核心。
“我们非常重视数据的安全和隐私,”受影响的人工智能公司之一的发言人表示。 “当我们得知 Mercor 发生的事件后,我们立即暂停了与他们的合作伙伴关系,同时调查潜在风险的程度。”
Mercor 是用于训练和测试人工智能算法的数据集的主要提供商。许多顶级人工智能研究实验室,包括 OpenAI、DeepMind 和 Google AI,都依赖 Mercor 的服务来访问涵盖广泛领域的大规模数据集。
此次泄露对人工智能行业来说是一个重大挫折,该行业一直在努力应对对其快速发展的技术所带来的安全和隐私影响日益增长的担忧。有关模型训练的敏感信息的暴露可能会让不良行为者了解各种人工智能系统的优缺点,从而有可能使他们能够制定对策或利用漏洞。
“这一事件凸显了人工智能社区迫切需要优先考虑强有力的网络安全措施,并仔细审查其数据提供商的安全实践,”博士说。 Emily Benson,人工智能安全领域的领先专家。 “风险太大,不能让敏感的行业秘密落入坏人之手。”
随着对 Mercor 数据泄露事件的调查继续进行,人工智能行业正在为潜在的后果做好准备。一些专家警告说,随着政策制定者和公众努力应对这些强大技术带来的风险,这一事件可能会破坏对更广泛的人工智能生态系统的信任,并导致监管审查加强。
“这给人工智能行业敲响了警钟,”博士说。 Liam Taggert,加州大学伯克利分校计算机科学教授。 “我们需要认真审视我们的安全实践,并找到更好的方法来保护支撑我们工作的敏感信息。人工智能的未来取决于此。”
来源: Wired


