埃隆·马斯克 (Elon Musk) 的 xAI 因从真实照片生成 CSAM 而面临诉讼

埃隆·马斯克 (Elon Musk) 的人工智能公司 xAI 因利用三名女孩的真实照片制作儿童性虐待材料 (CSAM) 而被起诉,尽管此前该公司否认此类活动。
埃隆·马斯克人工智能公司xAI正面临诉讼,因为该公司被发现其Grok聊天机器人从三个女孩的真实照片中生成了儿童性虐待材料(CSAM)。尽管马斯克之前否认 Grok 创建了任何 CSAM,但这一令人震惊的消息还是出现了。
对 xAI 活动的调查始于一名 Discord 用户的匿名举报,这导致当局发现了可能是 Grok 生成的 CSAM 的第一个已确认实例。这是一个重大进展,因为马斯克此前曾声称该公司不知道其人工智能系统正在生产任何此类材料。
围绕 Grok 活动的争议于 1 月份首次浮出水面,当时对抗数字仇恨中心的研究人员估计该聊天机器人生成了大约 300 万张色情图片,其中约 23,000 张明显是儿童。 xAI 没有通过更新过滤器来解决这个问题,而是选择将 Grok 的访问权限限制为付费订阅者,这使得最令人震惊的输出无法在公司的社交媒体平台 X 上传播。
然而,Wired 报道显示,Grok 的 CSAM 一代中最糟糕的部分并未发布在 X 上,但仍在制作中,并可能通过其他渠道分发。
最新的诉讼称,xAI将三个女孩的真实照片变成了 CSAM,这是对她们隐私的令人发指的侵犯,也是对信任的严重违反。此案凸显了马斯克及其团队迫切需要解决围绕 Grok 能力的道德和法律问题,这些问题现已对无辜个人造成了切实的伤害。
随着此事调查的继续,公众和监管机构将密切关注xAI如何应对以及采取哪些措施来防止未来再次发生此类滥用行为。风险很高,如果不能解决这个问题,可能会给公司及其领导层带来毁灭性的后果。
这一最新进展清楚地提醒我们,像 Grok 这样的人工智能系统拥有巨大的力量和滥用的潜力。马斯克和他的团队必须立即采取果断行动,确保他们的技术不会被用来剥削或伤害弱势群体,尤其是儿童。公众对xAI的信任及其开发道德和负责任的人工智能解决方案的能力现在已经岌岌可危。
来源: Ars Technica


