西班牙对大型科技人工智能虐待儿童事件展开调查

随着欧洲国家收紧社交媒体监管,西班牙对 X、Meta 和 TikTok 涉嫌传播人工智能生成的儿童虐待材料展开调查。
西班牙宣布对包括 X(前身为 Twitter)、Meta 和 TikTok 在内的主要社交媒体平台展开全面调查,指控其涉嫌协助传播人工智能生成的虐待儿童图像。这项开创性的调查是欧盟成员国针对人工智能滥用和在线儿童安全问题针对科技巨头采取的最重要的监管行动之一。
越来越多的证据表明,复杂的人工智能工具被用来创建描绘儿童剥削的真实但捏造的图像,西班牙当局对此做出了回应。这些人工智能生成的虐待儿童材料给世界各地的执法机构和儿童保护倡导者带来了前所未有的挑战,因为它们模糊了真实内容和合成内容之间的界限,同时可能对实际受害者造成类似的伤害。
有报道称,这些平台在检测、删除和阻止此类内容的传播方面进展缓慢,对此进行了调查。西班牙监管机构特别担心有害内容的算法放大以及平台未能对人工智能生成的非法材料实施充分的保障措施。该调查将审查这些公司是否违反了欧盟有关内容审核和儿童安全协议的规定。
欧盟内部市场专员蒂埃里·布雷顿(Thierry Breton)对西班牙的举措表示强烈支持,并表示该调查符合欧盟更广泛的数字服务法案 (DSA) 执行战略。今年早些时候全面生效的 DSA 要求大型在线平台对内容审核和用户安全承担更多责任,特别是涉及儿童等弱势群体。
Meta 对调查的回应强调了该公司对整个平台(包括 Facebook 和 Instagram)儿童安全的承诺。 Meta 的一位发言人表示,该公司已在安全措施上投资了数十亿美元,并雇用了数千名经过专门培训的内容审核员来识别和删除儿童剥削内容。然而,批评者认为,事实证明,这些措施不足以应对人工智能生成的滥用图像迅速演变的威胁。
中国公司字节跳动旗下的 TikTok 由于其庞大的年轻人用户群及其复杂的推荐算法而面临特别审查。该平台在整个欧洲面临着越来越大的监管压力,一些国家对数据隐私、内容审核和潜在的外国影响表示担忧。西班牙的调查使 TikTok 在欧洲市场的监管挑战又增加了一层复杂性。
埃隆·马斯克 (Elon Musk) 旗下的 X 因减少内容审核团队和放松某些安全政策而面临批评。该平台打击有害内容的方法受到了监管机构和儿童安全倡导者的质疑,他们认为裁员损害了该平台有效监控和删除非法内容(包括合成虐待儿童内容)的能力。
人工智能生成的非法内容带来的技术挑战是巨大的。依赖已知图像数据库的传统检测方法在处理完全合成的材料时变得不太有效。平台使用的机器学习算法必须不断更新,以识别新形式的人工智能生成内容,这需要大量的技术投资和专业知识。
欧洲各地的儿童保护组织对西班牙的调查表示欢迎,认为这是让社交媒体平台对其在打击在线儿童剥削方面的作用负责的必要步骤。追踪在线儿童性虐待材料的互联网观察基金会报告称,过去一年人工智能生成的内容出现了令人担忧的增长,凸显了监管干预的迫切需要。
法律专家表示,这项调查可能为欧洲当局如何处理人工智能相关犯罪和平台责任树立重要先例。结果可能会影响其他欧盟成员国的类似监管行动,并可能导致根据《数字服务法》框架处以巨额罚款,该框架允许对公司的罚款最高可达全球年收入的 6%。
这项调查正值人工智能技术迅速发展之际,这使得区分真实内容和合成内容变得越来越困难。 Deepfake 技术和其他人工智能工具变得更加容易获取和复杂,为执法部门、平台运营商和整个社会解决数字犯罪和保护弱势群体带来了新的挑战。
西班牙当局表示,调查不仅将检查平台的内容审核实践,还将检查其算法和推荐系统。监管机构特别想了解这些系统如何无意中促进或促进有害内容的传播,以及这些公司是否实施了足够的保障措施来防止此类情况的发生。
这项调查的更广泛影响超出了儿童安全范围,还包括有关人工智能监管、平台治理以及技术公司防止滥用其服务的责任等问题。随着人工智能越来越多地融入数字平台和内容创建工具,世界各地的监管机构都在努力解决如何平衡创新与公共安全和道德考虑。
行业观察人士指出,这项调查反映出欧洲当局对美国科技公司监管采取更积极立场的趋势。欧盟始终将自己定位为数字监管领域的全球领导者,实施了《通用数据保护条例》(GDPR) 和《数字服务法》等综合框架,这些框架影响了全球的监管方法。
西班牙的调查结果可能会对社交媒体平台如何处理内容审核和人工智能相关安全措施产生深远影响。公司可能需要在检测技术上投入更多资金,增加内容审核人员,并对人工智能生成的内容实施更严格的政策,以遵守欧洲法规并避免重大经济处罚。
随着调查的进行,儿童安全倡导者、技术公司和监管机构将密切关注可能影响在线平台问责和人工智能治理未来的发展。此案是对欧洲在日益复杂的技术环境中执行数字法规和保护弱势用户的能力的一次严峻考验。
来源: Deutsche Welle


