Meta 使用 AI 骨骼分析来检测未成年用户

Facebook 和 Instagram 部署先进的人工智能技术,通过分析照片中的骨骼结构和身体特征来识别和删除 13 岁以下的用户。
Facebook 和 Instagram 的母公司 Meta 宣布,其在保护年轻用户和遵守各平台年龄验证要求方面取得了重大进展。这家社交媒体巨头推出了复杂的人工智能骨骼结构分析系统,旨在识别 13 岁以下儿童的照片和视频,并阻止他们维护其服务帐户。这项技术举措代表了公司在数字时代处理儿童安全和监管合规方式的重大转变。
在周二发布的详细博客文章中,Meta 公布了这一新检测系统的机制,并解释说其人工智能技术将扫描 Facebook 和 Instagram 上发布的视觉内容,以查找特定的年龄指标。该系统分析 Meta 所描述的上传照片和视频中存在的“一般主题和视觉线索”,包括可测量的身体特征,例如身高和整体骨骼结构。这种综合方法旨在建立更强大的屏障,防止未成年用户访问技术上要求用户年满 13 岁的平台。
该公司一直特别谨慎地澄清这项技术的性质和范围,以回应长期以来围绕 Meta 实践的隐私问题。 Meta 在其公告中明确表示,“这不是面部识别”,强调了该系统与更具争议性的识别技术的一个关键区别。 骨骼分析人工智能系统不会通过分析特定个体的面部或创建面部识别配置文件来识别特定个体,这会引发除与新技术相关的问题之外的额外隐私和监管问题。
除了视觉分析之外,Meta 的综合年龄检测方法还扩展到检查用户帐户和交互的多个元素中的文本内容。该系统将分析帖子、评论、用户简介和标题,以识别可能表明用户未成年且违反平台服务条款的“上下文线索”。这种多层检测方法将图像分析与自然语言处理相结合,创建了比任何一种技术单独提供的更复杂的安全网。通过检查用户活动的完整数字足迹,Meta 旨在发现仅靠视觉内容可能不足以确认用户年龄的情况。
这一举措代表了 Meta 对社交媒体平台上日益增加的监管压力和公众对儿童安全问题的担忧的持续回应。世界各国政府都加强了对科技公司如何保护在线未成年人的审查,许多司法管辖区实施或考虑实施更严格的年龄验证要求。 Meta 的年龄验证技术可以理解为一种主动措施,旨在证明遵守现有法规和预期的未来立法。该公司因其平台如何影响年轻用户(从心理健康问题到不当内容曝光)而面临众多诉讼和监管调查。
这种骨骼结构分析的技术实施涉及先进的机器学习模型,该模型经过训练可以识别与不同年龄组相关的身体发育模式。这些模型分析照片中可见的比例、生长指标和骨骼成熟度标记,而无需创建持久的面部识别数据库。该系统底层的计算机视觉技术代表了多年来人工智能的发展,专注于识别人类特征,同时保持面部识别系统无法保证的隐私保护。
Meta 采取这一举措之际,该公司面临着来自儿童安全倡导者、监管机构和立法者的越来越大的压力,他们质疑现有的年龄验证机制是否足够健全。联邦贸易委员会、州总检察长和国际监管机构都对 Meta 关于未成年人的做法进行了审查。新的人工智能年龄检测代表了一种解决执法挑战的技术解决方案,这些挑战一直困扰着该公司遵守《儿童在线隐私保护法》(COPPA) 和国际类似法规的努力。
然而,这项技术的引入也引发了有关隐私影响以及儿童保护和用户数据安全之间适当平衡的重要问题。虽然 Meta 声称该系统不执行面部识别,但批评者认为骨骼结构分析和其他生物识别分析仍然代表着严重的隐私侵犯。从数百万张照片和视频中收集和处理物理特征数据会产生大量数据集,如果安全措施失败或公司的做法随着时间的推移而发生变化,这些数据集可能会被滥用。
该公司表示,该系统将在其平台上逐步推出,首先是 Facebook 和 Instagram。 Meta 表示,这项技术将与现有的安全措施和人工审核流程结合起来,以确保准确性并防止误报。尽管 Meta 承诺保持系统性能指标的透明度,但有关系统如何集成到现有审核基础设施的部署时间表和具体技术细节仍部分不清楚。
行业观察家注意到,Meta 的骨骼结构分析方法与科技公司和初创公司正在探索的其他年龄验证方法有很大不同。一些竞争对手专注于文件验证、政府颁发的身份证件的生物识别分析或行为模式识别。 Meta 的可视化分析方法试图在有效性和隐私考虑之间取得平衡,尽管利益相关者仍在争论这种平衡是否得到了适当的实现。该做法也反映了许多未成年用户使用虚假信息创建账户的实际情况,使得传统的验证方法失效。
展望未来,Meta 对年龄检测人工智能的投资可能会为其他社交平台如何实现儿童安全合规性建立一个模板。随着全球监管压力的增加,其他公司可能会采用类似的技术解决方案或开发竞争方法。 Meta 系统的有效性可能会影响监管讨论,即基于人工智能的年龄验证是否代表了可行的前进道路,或者是否应该强制执行更具侵入性的手动验证流程。
该公告还反映了使用人工智能进行内容审核和用户安全目的的更广泛的行业趋势。 Meta 已经部署了人工智能系统来大规模检测仇恨言论、错误信息和其他有问题的内容。将这一技术基础设施扩展到年龄验证代表了公司人工智能能力的逻辑演变,尽管这种能力具有独特的隐私和道德维度,需要仔细的管理和监督。
随着 Meta 继续实施这一骨骼分析检测系统,该公司将面临隐私倡导者、监管机构和儿童安全组织的持续审查。这一举措的成功不仅取决于其识别未成年用户的技术准确性,还取决于 Meta 在如何处理敏感生物识别数据方面维持公众信任的能力。公司在系统运行、性能指标和防止滥用的防范措施方面的透明度对于维持对 Meta 儿童保护承诺持怀疑态度的利益相关者的合法性至关重要。
来源: The Verge


