Fiddler 就人工智能虚假性犯罪指控起诉谷歌

加拿大音乐家阿什利·麦萨克 (Ashley MacIsaac) 在 AI Overview 错误地将他标记为性犯罪者并导致音乐会取消后,向谷歌提起 150 万美元的诉讼。
国际知名的加拿大小提琴演奏家、三届朱诺奖获得者阿什利·麦萨克 (Ashley MacIsaac) 对全球最大的科技公司之一采取了大胆的法律行动。这位音乐家已向安大略省高等法院提起价值 150 万美元的民事诉讼,对 Google 的 AI 概述功能提出质疑,因为该功能涉嫌发布诽谤性内容,将他误认为是已定罪的性犯罪者。这场法律战代表了关于人工智能问责制以及算法错误对个人生活和职业造成的现实后果的日益激烈的讨论中的一个重要时刻。
MacIsaac 的不满核心在于 Google 人工智能生成的摘要,据称其中包含有关他个人历史的虚假且极具破坏性的说法。根据诉讼,《人工智能概览》专题发布了不准确的信息,表明麦克萨克已被判犯有多项严重刑事犯罪。这些捏造的指控包括性侵犯妇女、通过网络引诱儿童意图实施性侵犯以及侵犯造成身体伤害。这些虚假指控的严重性表明,当算法错误信息通过搜索结果到达数百万用户时,其威力和潜在破坏性是多么强大。
这种诽谤性人工智能内容的影响已经超出了单纯的声誉损害。麦萨克声称,虚假信息直接导致音乐会演出被取消,给他的音乐生涯造成了重大的经济和职业损失。对于一个靠公众看法和预订机会为生的表演者来说,这种取消不仅意味着收入损失,而且对他在所选领域工作的能力构成根本威胁。这种级联效应说明了算法错误如何转化为对个人及其生计有形的、可衡量的伤害。
该诉讼特别强调了 Google 对法律专家所说的诽谤性内容“可预见的重新发布”的责任。这一法律概念对于理解 MacIsaac 的论点至关重要:谷歌应该认识到其人工智能概述功能将向数百万用户重新发布信息,从而使该公司对算法生成的摘要的准确性和影响负责。原告辩称,谷歌有能力也有责任阻止此类明目张胆的虚假信息通过其搜索平台传播,但未能实施足够的保障措施。
MacIsaac 的案件正处于技术法和人工智能监管辩论的关键时刻。随着人工智能系统越来越多地融入日常数字服务,有关责任和责任的问题变得越来越紧迫。科技公司是否应该为其人工智能系统所犯的错误负责?我们如何平衡创新与防止算法损害之间的关系?这些问题不仅对 Google 有着深远的影响,而且对整个科技行业也产生了深远的影响,因为它继续在各种平台和服务上部署人工智能支持的功能。
这位三届朱诺奖获得者的背景为他的案件增添了分量。麦萨克已成为加拿大音乐界一位受人尊敬且卓有成就的音乐家,他在各大场馆演出并赢得了业界的高度认可。这种在音乐界的地位使得虚假指控更具明显的破坏性,因为它们与他有据可查的职业声誉相矛盾。他的实际成就与谷歌人工智能系统涉嫌捏造的犯罪历史之间的对比凸显了算法错误的严重性。
这起诉讼提出了关于搜索引擎责任在人工智能时代应如何运作的重要问题。从历史上看,搜索引擎作为对他人创建的内容进行索引和排名的中立平台,享有重要的法律保护。然而,当公司部署人工智能系统来生成新的摘要而不是简单地组织现有内容时,编辑责任的问题就会变得更加复杂。 MacIsaac 的法律团队似乎认为,通过积极生成和推广这些摘要,Google 跨越了一个门槛,它应该对其准确性承担责任。
法律专家已经开始密切关注法院将如何处理此类案件,因为他们可以为搜索中的人工智能责任建立重要的先例。如果 MacIsaac 获胜,这可能表明部署生成式人工智能功能的科技公司不能简单地将错误归咎于自动化系统来逃避责任。相反,在发布人工智能生成的可能影响个人声誉和生计的内容之前,公司可能需要实施更强大的事实核查机制、人工监督协议和验证程序。其影响远远超出了 Google 的搜索平台。
该案件还凸显了公众人物和专业人士特别容易受到算法诽谤的影响。与通过社交媒体或传统新闻媒体传播的错误信息不同,搜索引擎结果中的错误在许多用户心目中具有特殊的权威性。当谷歌的算法提出有关某人的信息时,数以百万计的潜在雇主、预订代理、场地所有者和粉丝可能会遇到并相信该信息。这种放大效应使得人工智能生成的摘要的准确性对于保护个人免受声誉损害尤其重要。
随着法律诉讼的推进,此案可能会引起技术政策倡导者、法律学者和行业领袖的高度关注。结果可能会影响公司未来处理人工智能内容审核和准确性验证的方式。如果法院裁定部署生成式人工智能系统的公司对生成内容的准确性承担责任,我们可能会看到这些系统在整个行业的开发、测试和部署方式发生重大变化。公司可能会在事实检查基础设施、人工审核流程和责任保险方面投入更多资金,以防止类似索赔。
MacIsaac 的 150 万美元索赔不仅反映了他因演出取消而遭受的直接经济损失,还反映了对他的职业声誉和未来收入潜力的更广泛损害。该图还传达了这样的信息:这种算法诽谤所造成的危害的严重性。这并不是名义上的要求承认一个小错误的主张;而是一个名义上的主张。它代表了在没有足够保障措施的情况下部署不准确的人工智能系统所带来的现实后果的实质性断言。
此案发生之际,世界各地的政策制定者都在努力解决如何监管人工智能系统的问题。欧盟提出了全面的人工智能法规,美国发布了人工智能治理行政命令,许多国家正在开发自己的框架。像麦艾萨克这样的个人诉讼可能会影响这些监管框架的发展,因为它们凸显了当前做法造成的真正危害,并表明需要加强问责机制。随着社会寻求管理日益强大的人工智能系统的收益和风险的方法,法律与技术的交叉点不断发展。
展望未来,这起诉讼将成为法院如何解释算法内容生成时代企业责任的测试案例。无论 MacIsaac 最终是否获胜,此案都可能会引发 Google 内部和整个科技行业关于如何构建更可靠和负责任的人工智能系统的重要对话。根本问题仍然是:随着公司部署越来越强大的人工智能工具,直接影响人们的生活和声誉,他们应该承担什么程度的责任来确保准确性和防止伤害?
来源: The Guardian


