Платформы искусственного интеллекта отдают предпочтение Найджелу Фаражу в запросах о политике Великобритании

Новое исследование показывает, что системы искусственного интеллекта ссылаются на Найджела Фараджа больше, чем на других лидеров Великобритании. Reform UK демонстрирует неожиданный рост популярности больших языковых моделей.
Инновационный анализ платформ искусственного интеллекта выявил поразительную закономерность в том, как эти системы реагируют на вопросы о британской политике. Согласно исследованию, проведенному Peec AI, специализированной фирмой, специализирующейся на поисковой аналитике с помощью искусственного интеллекта, Найджел Фарадж и его партия «Реформы Великобритании» получают непропорционально высокий уровень упоминаний, когда пользователи задают этим системам вопросы о политических деятелях и движениях Великобритании. Этот вывод поднимает важные вопросы о том, как обучаются большие языковые модели и какие источники данных влияют на их ответы на политически чувствительные запросы.
Исследовательская группа под руководством аналитика Мальте Ландвера обнаружила, что Reform UK появляется в ответах систем искусственного интеллекта гораздо чаще, чем можно было бы предположить по статистическим данным или освещению в традиционных СМИ. «Мы с уверенностью можем сказать, что реформы проявляются значительно больше, чем можно было бы ожидать», — пояснил Ландвер в результатах исследования. Это наблюдение показывает, что заметность ИИ на основных платформах может не соответствовать традиционным показателям политической известности или общественной поддержки, что представляет собой увлекательный пример того, как алгоритмы влияют на распространение информации в эпоху цифровых технологий.
Ландвер пошел дальше в анализе последствий этих выводов, отметив, что известность Reform UK в ответах ИИ указывает на то, что они «делают что-то правильно, когда дело касается заметности LLM». Большие языковые модели лежат в основе большинства современных ИИ-помощников и поисковых инструментов, поэтому их обращение с различными политическими фигурами имеет решающее значение для понимания. Тот факт, что партия Фараджа упоминается чаще, чем существующие политические институты, предполагает либо концентрацию соответствующих обучающих данных, алгоритмическую предвзятость, либо настоящий сдвиг в том, как эти системы расставляют приоритеты в источниках информации.
Последствия этого исследования выходят за рамки простого любопытства по поводу поведения ИИ. Когда миллионы пользователей ежедневно взаимодействуют с системами искусственного интеллекта для получения информации о политике, экономике и политике, то, как эти системы ранжируют и представляют информацию о политических лидерах, становится важным. Предвзятость ИИ, продемонстрированная в этом исследовании, подчеркивает серьезный разрыв между тем, чего люди могут ожидать от нейтральных источников информации, и тем, что дают реальные алгоритмы, обученные на данных из Интернета.
Методология Peec AI включала анализ нескольких известных платформ искусственного интеллекта и их ответов на стандартизированные запросы о политике Великобритании. Фирма исследовала, как часто упоминаются различные политические фигуры, партии и движения, когда пользователи задают общие вопросы о британской политической ситуации. Согласованность результатов, полученных в различных системах искусственного интеллекта, позволяет предположить, что это не аномалия, ограниченная одной платформой, а скорее более широкая закономерность в том, как большие языковые модели обрабатывают и представляют политическую информацию.
Исследование поднимает важные вопросы об источниках, используемых для обучения этих моделей ИИ. Большие языковые модели обучаются на огромных объемах текстовых данных, полученных из Интернета, включая новостные статьи, сообщения в социальных сетях, научные статьи и другой письменный контент. Если определенные политические деятели или движения слишком представлены в этих наборах обучающих данных (из-за освещения в СМИ, объема онлайн-обсуждений или других факторов), полученные системы искусственного интеллекта будут отражать и усиливать эти закономерности в своих ответах на запросы пользователей.
Неожиданное выдающееся значение реформаторской Великобритании в ответных мерах в области системы искусственного интеллекта произошло в политически значимый момент в британской политике. Партия, позиционирующая себя как альтернатива традиционным консервативным и лейбористским истеблишментам, стремилась создать особый политический бренд и стратегию распространения информации. Если платформы искусственного интеллекта действительно придают непропорционально большую наглядность сообщениям и цифрам реформы, это может означать либо прорыв в охвате избирателей, вовлеченных в цифровые технологии, либо тревожное искажение в том, как политическая информация распространяется через алгоритмические системы.
Комментарии Мальте Ландвера позволяют предположить, что исследователи считают, что преимущество видимости ИИ Reform UK потенциально является результатом продуманных стратегий, а не случайности. «Они делают что-то правильно» может означать, что партия или ее сторонники более активно создают онлайн-контент, участвуют в дискуссиях или создают цифровое присутствие, которое питает алгоритмы, лежащие в основе этих систем. Альтернативно, это может отражать естественный интерес и объем дискуссий вокруг партии и ее лидеров.
Здесь решающее значение имеет различие между заработанной и запланированной видимостью. Если Reform UK действительно сможет привлечь больше онлайн-обсуждений и создать контент вокруг своего политического послания, это, естественно, может привести к более высокой видимости систем искусственного интеллекта, обученных на этих данных. Однако если видимость является результатом преднамеренной поисковой оптимизации, создания целевого контента или других маркетинговых стратегий, специально разработанных для влияния на результаты ИИ, это поднимает вопросы о справедливости и нейтральности этих алгоритмических хранителей информации.
Более широкое значение выводов Peec AI распространяется на то, как мы понимаем предвзятость ИИ и алгоритмическую справедливость в контексте политической информации. В отличие от традиционных новостных организаций, которые используют редакционные стандарты и журналистскую этику, системы искусственного интеллекта работают в соответствии со своими обучающими данными и алгоритмическими правилами. Когда к этим системам запрашивают политическую информацию, пользователи могут предположить, что они получают сбалансированную или репрезентативную точку зрения, но реальность оказывается более сложной и потенциально искаженной.
Это исследование способствует растущему объему работ по изучению того, как системы искусственного интеллекта справляются с такими деликатными темами, как политика, выборы и общественные деятели. Предыдущие исследования выявили различные формы предвзятости в системах ИИ: от гендерной предвзятости до проблем расового представительства. Текущие данные о политической заметности добавляют еще одно измерение к нашему пониманию того, как эти мощные инструменты могут влиять на общественный дискурс и доступ к информации.
В дальнейшем исследование поднимает важные вопросы как перед разработчиками ИИ, политиками, так и перед пользователями. Как создателям больших языковых моделей следует обеспечить сбалансированное представительство политических деятелей и движений? Должны ли существовать требования прозрачности в отношении обучающих данных, используемых в этих системах? Могут ли пользователи доверять платформам искусственного интеллекта в предоставлении нейтральной информации о политике или их следует рассматривать как инструменты с присущими им предубеждениями, требующими дополнительного контекста и проверки?
Результаты Peec AI служат напоминанием о том, что системы искусственного интеллекта, несмотря на их сложную технологию и кажущуюся объективность, в конечном итоге формируются человеческими решениями о том, какие данные использовать, как их обрабатывать и какие приоритеты встраивать в алгоритмические системы. Преимущество видимости ИИ, обнаруженное в этом исследовании, предполагает, что политические деятели и организации должны обращать внимание на то, как они выглядят в информационной среде, основанной на ИИ, поскольку эти системы все больше влияют на то, как люди узнают и понимают политические темы.


