Система искусственного интеллекта Meta анализирует структуру тела

Meta использует искусственный интеллект для изучения роста и состава костей, чтобы выявить несовершеннолетних пользователей. Функция безопасности в настоящее время тестируется в определенных регионах.
Meta, материнская компания Facebook и Instagram, представила инновационный подход к защите несовершеннолетних на своих платформах, используя технологию искусственного интеллекта, предназначенную для анализа физических характеристик пользователей. Система проверяет визуальные показатели, в том числе рост и строение костей, чтобы определить, являются ли люди, обращающиеся к платформе, несовершеннолетними, что представляет собой значительный прогресс в мерах цифровой безопасности.
Эта система визуального анализа представляет собой новейшую попытку Meta по борьбе с доступом несовершеннолетних к платформам, которые официально разрешены пользователям в возрасте 13 лет и старше. Компания подтвердила, что технология в настоящее время работает в некоторых странах по всему миру, хотя руководители отметили, что более широкое расширение остается приоритетом на ближайшие месяцы. Стратегия развертывания предполагает, что Meta применяет осторожный и взвешенный подход к внедрению этого противоречивого нового механизма проверки.
Внедрение этой технологии проверки возраста происходит в то время, когда платформы социальных сетей сталкиваются с растущим давлением со стороны регулирующих органов, родителей и защитников безопасности детей во всем мире. Многие юрисдикции начали вводить более строгие требования к платформам, чтобы продемонстрировать надежные механизмы ограничения возраста и протоколы защиты детей. Инвестиции Meta в физический анализ на основе искусственного интеллекта представляют собой попытку решить эти проблемы, сохраняя при этом конфиденциальность пользователей и сводя к минимуму ложные срабатывания, которые могут расстроить законных взрослых пользователей.
Техническая основа, лежащая в основе этой системы, использует передовые алгоритмы машинного обучения, которые были обучены на обширных наборах данных для распознавания моделей физического развития, связанных с различными возрастными группами. Эти алгоритмы анализируют различные биометрические маркеры, полученные с помощью фотографий или видеоконтента, отправленных пользователями, включая пропорциональные отношения между сегментами тела, показатели зрелости скелета и характеристики роста, которые обычно коррелируют с конкретными возрастными диапазонами. Модель искусственного интеллекта пытается определить стадии развития, которые статистически связаны с детством или ранним подростковым возрастом.
По данным компании Meta, система функционирует как один из компонентов комплексной стратегии определения возраста, включающей несколько уровней проверки. Компания подчеркивает, что визуальный анализ не работает изолированно, а работает в сочетании с другими методами, такими как проверка документов, анализ поведенческих моделей и проверка социальных сетей. Этот многоуровневый подход направлен на повышение точности и одновременное снижение зависимости от какого-либо одного метода обнаружения, который можно обойти или дать неточные результаты.
Защитники конфиденциальности и технические эксперты высказали несколько важных соображений относительно этой технологии. Сбор и анализ биометрических данных, даже в целях защиты, представляет собой значительное расширение практики сбора данных, которая, как утверждают некоторые, может создать риски для конфиденциальности для всех пользователей. Кроме того, были высказаны опасения по поводу возможных дискриминационных последствий, поскольку физическое развитие значительно различается в зависимости от этнических групп, географических регионов и индивидуальных обстоятельств, что потенциально может привести к ложноположительным или ложноотрицательным результатам.
Текущая пилотная программа в некоторых странах позволяет Meta протестировать эффективность системы и собрать данные о ее реальной производительности, прежде чем расширять базу пользователей. Такой поэтапный подход позволяет компании выявлять и решать технические проблемы, совершенствовать алгоритмы и разрабатывать протоколы для обработки крайних случаев и неоднозначных результатов. Сообщается, что инженерные группы Meta собирают отзывы о ранних развертываниях, чтобы повысить точность и свести к минимуму случаи, когда система неправильно помечает взрослых пользователей или не может идентифицировать несовершеннолетних пользователей.
Регулирующие органы во многих странах отреагировали на заявление Меты с осторожным интересом, хотя некоторые выразили скептицизм относительно того, является ли один только визуальный анализ адекватной проверкой возраста. Европейские регулирующие органы, в частности, подчеркнули, что эффективная проверка возраста должна включать поддающуюся проверке идентификацию и что подходы, основанные только на биометрии, могут не соответствовать новым правовым стандартам защиты детей в цифровой среде. Закон о цифровых услугах и аналогичные нормативные акты подталкивают платформы к более надежным и документированным механизмам проверки возраста.
Отраслевые обозреватели отмечают, что это развитие отражает более широкий сдвиг в сторону модерации контента на базе искусственного интеллекта и систем безопасности пользователей на основных платформах социальных сетей. Конкуренты, включая TikTok, YouTube и Snapchat, аналогичным образом инвестировали в технологии искусственного интеллекта, предназначенные для идентификации и управления контентом, касающимся несовершеннолетних. Однако особый акцент на анализе физических характеристик посредством визуального осмотра представляет собой более интрузивный подход, чем публично принят на многих конкурирующих платформах, что поднимает вопросы об отраслевых стандартах и передовом опыте.
Приверженность Meta к расширению этой технологии позволяет предположить, что компания рассматривает инновации в области проверки возраста как важнейшее конкурентное и нормативное преимущество. Платформа подверглась серьезному вниманию после многочисленных сообщений, документирующих вред, связанный с использованием социальных сетей несовершеннолетними, включая влияние на психическое здоровье, воздействие нежелательного контента и киберзапугивание. Демонстрируя активные инвестиции в технологии обнаружения, Meta стремится позиционировать себя как ответственного субъекта, занимающегося защитой детей, что потенциально может повлиять на нормативные оценки усилий компании по соблюдению требований.
Сроки более широкого развертывания остаются неопределенными: в Meta лишь заявляют, что расширение будет происходить по мере того, как система станет более зрелой и докажет свою эффективность в различных группах пользователей. Компания не раскрыла, какие страны в настоящее время участвуют в пилотной программе, а также не предоставила подробные показатели точности системы или процента ложных срабатываний. Большая прозрачность в отношении этих операционных деталей, вероятно, поможет решить проблемы защитников конфиденциальности и регулирующих органов, контролирующих внедрение технологии.
В будущем успех системы визуального анализа Meta может повлиять на подход других технологических компаний к проблемам проверки возраста. Если технология окажется эффективной и благоприятной для регулирования, другие платформы могут принять аналогичные подходы, потенциально создав общеотраслевые стандарты для определения возраста с помощью искусственного интеллекта. И наоборот, если при реализации выявляются серьезные проблемы с точностью или конфиденциальностью, регулирующие органы могут ввести ограничения, ограничивающие развертывание таких технологий в индустрии социальных сетей.
Заявление Meta отражает признание компанией того, что традиционные методы проверки возраста оказались неадекватными для защиты несовершеннолетних на ее платформах. Проверка документов по-прежнему ограничена сопротивлением пользователей и проблемами конфиденциальности, а сам по себе поведенческий анализ не может надежно отличить молодых подростков от взрослых с юношескими характеристиками. Интеграция визуального анализа в инфраструктуру безопасности Meta представляет собой признание того, что решение проблемы доступа несовершеннолетних требует технологически сложных и многогранных подходов, а не простой уверенности в честности пользователей при создании учетной записи.
Источник: TechCrunch

