Испания начинает расследование жестокого обращения с детьми в сфере высоких технологий и искусственного интеллекта

Испания расследует X, Meta и TikTok по подозрению в распространении материалов о жестоком обращении с детьми, созданных с помощью искусственного интеллекта, поскольку европейские страны ужесточают правила социальных сетей.
Испания объявила о проведении комплексного расследования в отношении основных социальных сетей, включая X (ранее Twitter), Meta и TikTok, по обвинениям в содействии распространению изображений жестокого обращения с детьми, созданных искусственным интеллектом. Это новаторское расследование представляет собой одно из наиболее важных регуляторных действий, предпринятых государством-членом Европейского Союза против технологических гигантов в отношении неправомерного использования искусственного интеллекта и безопасности детей в Интернете.
Испанские власти реагируют на растущее количество доказательств того, что сложные инструменты искусственного интеллекта используются для создания реалистичных, но сфабрикованных изображений, изображающих эксплуатацию детей. Эти материалы о жестоком обращении с детьми, созданные с помощью искусственного интеллекта, создают беспрецедентные проблемы для правоохранительных органов и защитников прав детей во всем мире, поскольку они стирают границы между реальным и синтетическим контентом, в то же время потенциально причиняя аналогичный вред реальным жертвам.
Расследование основано на сообщениях о том, что эти платформы не спешат обнаруживать, удалять и предотвращать распространение такого контента. Испанские регулирующие органы особенно обеспокоены алгоритмическим усилением вредоносного контента и неспособностью платформ реализовать адекватные меры защиты от незаконных материалов, созданных ИИ. В ходе расследования будет выяснено, нарушили ли компании правила Европейского Союза, касающиеся модерации контента и протоколов безопасности детей.
Европейский комиссар по внутреннему рынку Тьерри Бретон выразил решительную поддержку инициативе Испании, заявив, что расследование соответствует более широкой стратегии соблюдения Закона ЕС о цифровых услугах (DSA). DSA, вступивший в полную силу в начале этого года, требует от крупных онлайн-платформ брать на себя больше ответственности за модерацию контента и безопасность пользователей, особенно в отношении уязвимых групп населения, таких как дети.
Ответ Meta на расследование подчеркнул приверженность компании обеспечению безопасности детей на всех своих платформах, включая Facebook и Instagram. Представитель Meta заявил, что компания инвестировала миллиарды долларов в меры безопасности и нанимает тысячи модераторов контента, специально обученных выявлять и удалять материалы, посвященные эксплуатации детей. Однако критики утверждают, что этих мер оказалось недостаточно для борьбы с быстро развивающейся угрозой, связанной с изображениями насилия, созданными с помощью искусственного интеллекта.
TikTok, принадлежащий китайской компании ByteDance, сталкивается с особым вниманием из-за огромной пользовательской базы молодых людей и сложного алгоритма рекомендаций. Платформа подвергается усиленному нормативному давлению по всей Европе, причем несколько стран выражают обеспокоенность по поводу конфиденциальности данных, модерации контента и потенциального иностранного влияния. Испанское расследование усложняет нормативные проблемы TikTok на европейском рынке.
X, принадлежащая Илону Маску, подверглась критике за сокращение команд модерации контента и смягчение некоторых политик безопасности. Подход платформы к борьбе с вредным контентом подвергается сомнению со стороны регулирующих органов и защитников безопасности детей, которые утверждают, что сокращение штата поставило под угрозу способность платформы эффективно отслеживать и удалять незаконные материалы, включая синтетический контент, содержащий насилие над детьми.
Технологические проблемы, создаваемые незаконным контентом, создаваемым искусственным интеллектом, огромны. Традиционные методы обнаружения, основанные на известных базах данных изображений, становятся менее эффективными при работе с полностью синтетическим материалом. Алгоритмы машинного обучения, используемые платформами, должны постоянно обновляться для выявления новых форм контента, генерируемого искусственным интеллектом, что требует значительных технологических инвестиций и опыта.
Организации по защите детей по всей Европе приветствовали расследование Испании как необходимый шаг к привлечению платформ социальных сетей к ответственности за их роль в борьбе с эксплуатацией детей в Интернете. Фонд Internet Watch Foundation, который отслеживает в Интернете материалы о сексуальном насилии над детьми, сообщил о тревожном росте количества контента, созданного с помощью ИИ, за последний год, что подчеркивает острую необходимость вмешательства регулирующих органов.
Эксперты по правовым вопросам предполагают, что это расследование может создать важные прецеденты в отношении того, как европейские власти справляются с преступлениями, связанными с искусственным интеллектом, и ответственностью за платформу. Результаты могут повлиять на аналогичные нормативные действия в других государствах-членах ЕС и потенциально могут привести к крупным штрафам в соответствии с Законом о цифровых услугах, который допускает штрафы в размере до 6% от глобального годового дохода компании.
Расследование проводится в то время, когда технологии искусственного интеллекта быстро развиваются, что делает различие между реальным и синтетическим контентом становится все труднее. Технология Deepfake и другие инструменты искусственного интеллекта стали более доступными и сложными, что создает новые проблемы для правоохранительных органов, операторов платформ и общества в целом в борьбе с цифровыми преступлениями и защите уязвимых групп населения.
Испанские власти заявили, что в ходе расследования будут изучены не только методы модерации контента на платформах, но также их алгоритмы и системы рекомендаций. Регулирующие органы особенно заинтересованы в понимании того, как эти системы могут непреднамеренно способствовать или способствовать распространению вредоносного контента, а также внедрили ли компании достаточные меры защиты для предотвращения таких случаев.
Более широкие последствия этого расследования выходят за рамки безопасности детей и включают вопросы о регулировании ИИ, управлении платформами и ответственности технологических компаний за предотвращение неправомерного использования их услуг. Поскольку искусственный интеллект все больше интегрируется в цифровые платформы и инструменты создания контента, регулирующие органы во всем мире пытаются найти баланс между инновациями, общественной безопасностью и этическими соображениями.
Отраслевые обозреватели отмечают, что это расследование отражает растущую тенденцию европейских властей занимать более агрессивную позицию в отношении регулирования американских технологических компаний. Европейский Союз неизменно позиционирует себя как мировой лидер в области цифрового регулирования, внедряя комплексные механизмы, такие как Общий регламент по защите данных (GDPR) и Закон о цифровых услугах, которые повлияли на подходы к регулированию во всем мире.
Результаты испанского расследования могут иметь далеко идущие последствия для того, как платформы социальных сетей подходят к модерации контента и мерам безопасности, связанным с искусственным интеллектом. Компаниям, возможно, придется больше инвестировать в технологии обнаружения, увеличить штат модераторов контента и внедрить более строгую политику в отношении контента, созданного искусственным интеллектом, чтобы соответствовать европейским нормам и избежать значительных финансовых санкций.
По мере продолжения расследования защитники безопасности детей, технологические компании и регулирующие органы будут внимательно следить за событиями, которые могут определить будущее подотчетности онлайн-платформ и управления искусственным интеллектом. Этот случай представляет собой критическое испытание способности Европы обеспечить соблюдение своих цифровых правил и защитить уязвимых пользователей во все более сложной технологической среде.
Источник: Deutsche Welle


