Прозрачность ИИ: Кэмпбелл Браун о том, кто контролирует информацию об ИИ

Кэмпбелл Браун, бывший руководитель отдела новостей Meta, обсуждает несоответствие между повествованием об искусственном интеллекте в Кремниевой долине и тем, что потребители на самом деле хотят знать об искусственном интеллекте.
Кэмпбелл Браун, бывший руководитель отдела новостей и связей с общественностью компании Meta, стал активным сторонником прозрачности в том, как системы искусственного интеллекта определяют, какая информация доходит до пользователей. Ее выводы показывают тревожный разрыв между разговорами, происходящими в залах заседаний Силиконовой долины, и реальными проблемами, которые поднимают обычные потребители, которые все чаще ежедневно взаимодействуют с технологиями искусственного интеллекта.
Разрыв между корпоративными нарративами и общественным пониманием представляет собой одну из наиболее острых проблем в нынешней сфере искусственного интеллекта. Точка зрения Брауна, сформированная годами работы на стыке технологий, средств массовой информации и государственной политики, подчеркивает, как различные заинтересованные стороны рассматривают роль ИИ в распространении информации. В то время как технологические компании уделяют особое внимание эффективности алгоритмов и бизнес-метрикам, потребители задают фундаментальные вопросы об ответственности, предвзятости и о том, как их данные влияют на контент, с которым они сталкиваются.
"В Кремниевой долине ведутся разговоры об одном, а среди потребителей ведутся совершенно другие разговоры", - объяснил Браун, уловив суть этого коммуникационного сбоя. Это наблюдение подчеркивает важную проблему, которую технологическая отрасль должна решить, поскольку системы искусственного интеллекта становятся все более важными для доступа людей к новостям, информации и развлечениям. Ставки особенно высоки, учитывая, как эти технологии влияют на общественное мнение и формируют информационную экосистему.
Во время работы в Meta Браун воочию стала свидетелем того, как модерация контента и алгоритмическое принятие решений развивались вместе с растущим вниманием общественности. Ее роль требовала балансирования деловых интересов компании с растущим давлением со стороны регулирующих органов, журналистов и правозащитных групп, требующих большей прозрачности того, как работают системы Facebook. Эта уникальная позиция позволила ей стать связующим звеном между технологическим сектором и более широкими общественными интересами по поводу подотчетности в области ИИ.
Фундаментальный вопрос, который поднимает Браун, обманчиво прост, но чрезвычайно сложен: кто должен решать, какую информацию системы искусственного интеллекта предоставляют пользователям? В традиционных средствах массовой информации редакторы принимают такие решения, руководствуясь журналистскими принципами и редакционными стандартами. Однако системы на базе искусственного интеллекта работают в соответствии с алгоритмами, оптимизированными для вовлечения, прибыли и других показателей, которые могут не соответствовать общественным интересам. Это различие имеет огромное значение, если учесть, как миллионы людей получают ежедневные новости и формируют свое мировоззрение.
Подход Кремниевой долины к этому вопросу обычно делает упор на инновации, выбор пользователей и динамику рынка. Лидеры технологий утверждают, что алгоритмы отражают предпочтения пользователей и что конкуренция между платформами естественным образом способствует лучшим результатам. Они указывают на сложность современных информационных систем и утверждают, что надзор должен оставаться легким, чтобы сохранить преимущества технологического прогресса. Эта точка зрения отдает приоритет экономическому росту и технологическому прогрессу как основным благам, которые необходимо максимизировать.
Потребители, напротив, выражают растущее беспокойство по поводу того, как алгоритмические рекомендации влияют на то, что они видят в Интернете. Опросы неизменно показывают, что людей беспокоят пузырьки фильтров, дезинформация и неспособность понять, почему определенный контент появляется в их лентах. Эти опасения проистекают не из антитехнологических настроений, а из законных вопросов о справедливости, прозрачности и концентрации власти, которой обладает горстка компаний, контролирующих основные информационные платформы. Общественное мнение предполагает, что нынешние системы не отвечают должным образом интересам пользователей и потребностям общества.
Защита Брауна отражает растущее движение среди бывших инсайдеров технологических компаний, которые считают, что отрасль должна фундаментально пересмотреть свой подход к распространению информации. Эти голоса утверждают, что системам обнаружения контента необходимы структуры управления, которые бы балансировали коммерческие интересы с общественным благосостоянием. Вместо того чтобы противостоять технологическому прогрессу, эта точка зрения направлена на то, чтобы инновации служили демократическим ценностям и процветанию человечества, а не подрывали их.
В ответ на это давление нормативно-правовая база начинает меняться. Закон Европейского Союза о цифровых услугах, различные инициативы на уровне штатов в США и предлагаемое федеральное законодательство – все они направлены на установление более четких правил о том, как компании управляют алгоритмическим контентом. Эти усилия по регулированию отражают признание того, что статус-кво неустойчив и что для защиты общественных интересов необходима определенная степень внешнего надзора.
Акцент Брауна на преодолении разрыва в дискуссиях предполагает, что решения потребуют подлинного диалога между технологическими компаниями, политиками, организациями гражданского общества и общественностью. В настоящее время эти сообщества ведут в основном отдельные диалоги, при этом каждая группа обращается в первую очередь к своим членам и укрепляет существующие точки зрения. Разрушение этой разрозненности представляет собой решающий шаг на пути к разработке подходов, учитывающих множество законных проблем и ценностей.
Задача выходит за рамки новостей и информации и охватывает практически все области, в которых системы ИИ принимают важные решения. От алгоритмов найма до определения кредита, от рекомендаций в области здравоохранения до оценок уголовного правосудия — вопрос о том, кто решает, какая информация кому доходит — и в соответствии с какими стандартами — влияет на жизненные результаты миллионов людей. Таким образом, установление принципов принятия решений с помощью ИИ выходит далеко за рамки медиаиндустрии.
Работа Брауна подчеркивает важность повышения грамотности в области искусственного интеллекта среди широкой общественности. Когда потребители понимают, как работают алгоритмические системы и какие значения они кодируют, они становятся лучше подготовлены к критической оценке информации и выступают за изменения в системах, которые их затрагивают. Образовательные инициативы, объясняющие эти концепции доступным языком, представляют собой важное дополнение к нормативным и корпоративным реформам.
В дальнейшем разговор, за который выступает Браун, вероятно, определит, как общество адаптируется к растущей роли искусственного интеллекта в информационных системах. Успех потребует признания того, что и инновационная перспектива Кремниевой долины, и обеспокоенность потребителей по поводу ответственности содержат важные истины. Технологические компании обладают подлинным опытом в отношении того, что технически возможно и экономически устойчиво, а общественность правильно определяет риски и ценности, которые заслуживают защиты.
Путь вперед, вероятно, предполагает установление более четких стандартов прозрачности, создание возможностей для общественного участия в том, как работают алгоритмические системы, и создание механизмов подотчетности, которые гарантируют, что системы ИИ служат общественным интересам наряду с коммерческими. Вмешательство Кэмпбелл Браун в эту дискуссию, предоставившее ей внутренние знания о том, как работают крупные технологические компании, и искреннее сочувствие общественным интересам, предлагает конструктивный пример того, как пробелы в общении могут начать сокращаться.
Источник: TechCrunch


