Платформи штучного інтелекту віддають перевагу Найджелу Фаражу в питаннях політики Великобританії

Нове дослідження показує, що системи ШІ посилаються на Найджела Фараджа більше, ніж на інших лідерів Великобританії. Reform UK показує неочікуваний приріст видимості у великих мовних моделях.
Новаторський аналіз платформ штучного інтелекту виявив вражаючу закономірність у тому, як ці системи відповідають на запитання про британську політику. Згідно з дослідженням, проведеним Peec AI, спеціалізованою компанією, що спеціалізується на пошуковій аналітиці штучного інтелекту, Найджел Фарадж і його партія Reform UK отримують непропорційно багато згадок, коли користувачі запитують ці системи про британських політичних діячів і рухи. Цей висновок викликає важливі запитання про те, як тренуються великі мовні моделі та які джерела даних впливають на їхні відповіді на політично делікатні запити.
Дослідницька група на чолі з аналітиком Малте Ландвером виявила, що Reform UK з’являється у відповідях систем штучного інтелекту набагато частіше, ніж припускає статистичне представлення чи традиційне висвітлення в ЗМІ. «Ми з упевненістю стверджуємо, що реформи виявляються набагато більше, ніж ви очікували б», — пояснив Ландвер у висновках дослідження. Це спостереження свідчить про те, що видимість штучного інтелекту на основних платформах може не узгоджуватися зі звичайними показниками політичної популярності чи громадської підтримки, представляючи захоплюючий приклад того, як алгоритми формують розподіл інформації в епоху цифрових технологій.
Landwehr пішов далі в аналізі наслідків цих висновків, зазначивши, що видатність Reform UK у відповідях на штучний інтелект свідчить про те, що вони «роблять щось правильно, коли йдеться про видимість LLM». Великі мовні моделі використовують більшість сучасних помічників штучного інтелекту та інструментів пошуку, що робить їхнє ставлення до різних політичних діячів надзвичайно важливим для розуміння. Той факт, що партія Фараджа згадується частіше, ніж усталені політичні інституції, свідчить або про концентрацію відповідних навчальних даних, упередженість алгоритмів, або про справжню зміну в тому, як ці системи визначають пріоритети джерел інформації.
Наслідки цього дослідження виходять за рамки простої цікавості щодо поведінки ШІ. Коли мільйони користувачів щодня взаємодіють із системами штучного інтелекту для отримання інформації про політику, економіку та політику, те, як ці системи оцінюють і подають інформацію про політичних лідерів, стає значущим. Упередженість штучного інтелекту, продемонстрована в цьому дослідженні, підкреслює критичний розрив між тим, що люди можуть очікувати від нейтральних джерел інформації, і тим, що реальні алгоритми забезпечують, коли навчаються на даних з Інтернету.
Методологія Peec AI передбачала аналіз кількох відомих платформ ШІ та їхніх відповідей на стандартизовані запити про політику Великобританії. Фірма перевірила, як часто різні політичні діячі, партії та рухи згадувалися, коли користувачі ставили загальні запитання про політичний ландшафт Великобританії. Узгодженість результатів у різних системах ШІ свідчить про те, що це не аномалія, обмежена однією платформою, а скоріше ширша закономірність у тому, як великі мовні моделі обробляють і подають політичну інформацію.
Дослідження піднімає важливі питання щодо джерел, які використовуються для навчання цих моделей ШІ. Великі мовні моделі навчаються на величезній кількості текстових даних, зібраних з Інтернету, включаючи новинні статті, публікації в соціальних мережах, наукові роботи та інший письмовий вміст. Якщо певні політичні діячі чи рухи надмірно представлені в цих навчальних наборах даних — чи то через висвітлення в ЗМІ, обсяг онлайн-обговорень чи інші фактори — отримані системи ШІ відображатимуть і посилюватимуть ці шаблони у своїх відповідях на запити користувачів.
Неочікувана видатність Reform UK у відповідях систем штучного інтелекту відбувається в політично важливий момент у британській політиці. Партія, яка позиціонувала себе як альтернативу традиційним консервативним і лейбористським істеблішментам, прагнула створити чіткий політичний бренд і стратегію обміну повідомленнями. Якщо платформи штучного інтелекту справді надають непропорційну видимість повідомленням і цифрам реформ, це може означати або прорив у охопленні цифрових виборців, або серйозне спотворення в тому, як політична інформація поширюється через алгоритмічні системи.
Коментарі Malte Landwehr свідчать про те, що дослідники вважають, що перевага ШІ у видимості Reform UK потенційно походить від навмисних стратегій, а не випадковості. «Вони роблять щось правильно» може означати, що партія або її прихильники були більш активними у створенні онлайн-контенту, участі в обговореннях або побудові цифрової присутності, яка живить алгоритми, що живлять ці системи. Крім того, це може відображати органічний інтерес і обсяг дискусій навколо партії та її керівництва.
Різниця між заслуженою та спроектованою видимістю тут є надзвичайно важливою. Якщо Reform UK справді захопив більше онлайн-обговорень і створення контенту навколо свого політичного повідомлення, це, природно, призведе до кращої видимості в системах ШІ, навчених на цих даних. Однак, якщо видимість є результатом навмисної оптимізації пошукових систем, створення цільового вмісту чи інших маркетингових стратегій, спеціально розроблених для впливу на результати штучного інтелекту, виникає питання щодо чесності та нейтральності цих алгоритмічних захисників інформації.
Ширші наслідки висновків Peec AI поширюються на те, як ми розуміємо упередженість AI та справедливість алгоритмів у контексті політичної інформації. На відміну від традиційних новинних організацій, які використовують редакційні стандарти та журналістську етику, системи штучного інтелекту працюють відповідно до своїх навчальних даних і алгоритмічних правил. Коли ці системи запитують політичну інформацію, користувачі можуть припустити, що вони отримують збалансовану або репрезентативну точку зору, але реальність виглядає складнішою та потенційно спотвореною.
Це дослідження сприяє зростанню кількості робіт із вивчення того, як системи штучного інтелекту обробляють делікатні теми, як-от політика, вибори та громадські діячі. Попередні дослідження виявили різні форми упередженості в системах штучного інтелекту, від гендерних упереджень до проблем расового представництва. Поточне відкриття щодо політичної видимості додає ще один вимір до нашого розуміння того, як ці потужні інструменти можуть формувати публічний дискурс і доступ до інформації.
У майбутньому дослідження піднімає важливі питання як для розробників штучного інтелекту, так і для політиків і користувачів. Як творці великих мовних моделей повинні забезпечити збалансоване представлення політичних діячів і рухів? Чи мають існувати вимоги щодо прозорості щодо навчальних даних, які використовуються в цих системах? Чи можуть користувачі довіряти платформам штучного інтелекту надавати нейтральну інформацію про політику, чи їх слід вважати інструментами з властивими упередженнями, які потребують додаткового контексту та перевірки?
Висновки Peec AI служать нагадуванням про те, що системи штучного інтелекту, незважаючи на їхню складну технологію та очевидну об’єктивність, у кінцевому підсумку формуються людськими рішеннями про те, які дані використовувати, як обробляти ці дані та які пріоритети вбудовувати в алгоритмічні системи. Перевага видимості штучного інтелекту, виявлена в цьому дослідженні, свідчить про те, що політичні діячі та організації повинні звертати увагу на те, як вони виглядають в інформаційному середовищі, опосередкованому штучним інтелектом, оскільки ці системи все більше впливають на те, як люди дізнаються про політичні теми та розуміють їх.


