Фальшиві відео штучного інтелекту про занепад міст у Великій Британії. Соціальні мережі

Відео Deepfake, що зображують занепад громадських об’єктів Великобританії, поширюються соціальними платформами, викликаючи расистську реакцію та занепокоєння дезінформацією.
На платформах соціальних медіа з’явилася тривожна тенденція, оскільки відео, створені за допомогою штучного інтелекту, які зображують вигадані сцени занепаду міст у Сполученому Королівстві, продовжують поширюватися із загрозливою швидкістю. Ці вишукані дипфейки демонструють уявні сценарії занепаду громадської інфраструктури, занедбаних об’єктів, які фінансуються платниками податків, і антиутопічних міських пейзажів, які мало схожі на реальність, але достатньо переконливі, щоб ввести в оману випадкових глядачів.
Відео діпфейк головним чином зосереджені на громадських зручностях, таких як аквапарки, басейни, громадські центри та рекреаційні заклади, які здається, знаходяться в стані сильного занепаду. Ці ролики, створені штучним інтелектом, показують розвалені бетонні конструкції, застійну воду, заповнену сміттям, розбиту плитку та зарослу рослинність, які відновлюють те, що нібито колись було процвітаючим громадським простором. Рівень деталізації цих сфабрикованих сцен надзвичайно складний, включаючи реалістичне освітлення, погодні ефекти та текстури навколишнього середовища, завдяки чому вони виглядають справжніми для нічого не підозрюючих глядачів.
Особливе занепокоєння робить ці відео, згенеровані штучним інтелектом, це їх швидке поширення на багатьох платформах соціальних мереж, зокрема TikTok, Twitter, Facebook та Instagram. Алгоритмічна природа цих платформ має тенденцію посилювати контент, який викликає сильні емоційні реакції, і ці фейкові відео про занепад міст, безумовно, досягають цієї мети. Користувачі діляться ними з підписами, які виражають обурення щодо державних витрат, невдалої державної політики та розпаду суспільства, часто не ставлячи під сумнів їх автентичність і не досліджуючи їх походження.
Створення та розповсюдження цих підроблених відео зі штучним інтелектом є частиною скоординованих зусиль з маніпулювання громадською думкою щодо міського розвитку, державних витрат і соціальної політики у Великобританії. Багато відео супроводжуються оманливими підписами, які нібито демонструють результати конкретних політичних рішень або поточний стан окремих районів, незважаючи на те, що вони повністю сфабриковані. Ця кампанія з дезінформації використовує наявні занепокоєння людей щодо державних витрат і розвитку міст для поширення неправдивих наративів.

Мабуть, найбільше непокоїть те, як ці діпфейкові відео стали засобами для расистських коментарів і дискримінаційної риторики. Розділи коментарів під цими вірусними кліпами часто наповнені підбурливими відгуками, які звинувачують конкретні етнічні спільноти, іммігрантів або групи меншин у вигаданому розпаді, зображеному у відео. Ця расистська реакція демонструє, як складний контент, створений штучним інтелектом, може бути зброєю для просування ідеологій розколу та зміцнення шкідливих стереотипів про різні спільноти.
Користувачі соціальних мереж, які стикаються з цими відео, часто реагують із щирим шоком і жахом, вважаючи, що вони є свідками реального розпаду суспільства чи невдалої політики уряду. Емоційний вплив від того, що здається грошима платників податків, витраченими на руйнуючу інфраструктуру, викликає сильну реакцію, якою користувачі відчувають потребу поділитися зі своїми мережами. Цей вірусний механізм гарантує, що згенерована штучним інтелектом дезінформація досягає все більшої аудиторії, посилюючи її потенціал для шкоди.
Технічна складність цих глибоких фейків є значним прогресом у технології генерації відео ШІ. На відміну від попередніх прикладів синтетичних носіїв, які містили очевидні візуальні артефакти або невідповідності, ці нові твори демонструють покращену якість з точки зору рендерингу текстури, узгодженості освітлення та часової когерентності. Творці, схоже, використовують передові генеративні змагальні мережі (GAN) або подібні моделі машинного навчання, навчені на великих наборах даних реального міського середовища та сценаріїв занепаду.
Експерти з виявлення синтетичних носіїв попереджають, що пересічним користувачам стає дедалі складніше ідентифікувати ці створені штучним інтелектом відео. Традиційні ознаки дипфейкового вмісту, як-от неприродні рухи обличчя чи непостійне освітлення, менш доречні, коли у відео зосереджено неживі об’єкти та сцени навколишнього середовища. Відсутність людей у багатьох із цих відео виключає деякі з найнадійніших методів виявлення, які зазвичай використовують дослідники та перевіряючі факти.

Це явище відображає ширші виклики, з якими стикається суспільство, оскільки технологія ШІ стає доступнішою та складнішою. Інструменти, необхідні для створення переконливих глибоких фейкових відео, більше не обмежуються добре фінансованими організаціями чи високотехнічними спеціалістами. Програмне забезпечення споживчого класу та хмарні служби штучного інтелекту демократизували створення синтетичних медіа, дозволяючи людям зі скромними технічними навичками та обмеженими ресурсами створювати переконливий фейковий вміст.
Урядові чиновники та прихильники медіаграмотності висловлюють дедалі більше занепокоєння щодо потенційного впливу цієї дезінформації, створеної штучним інтелектом, на громадський дискурс і демократичні процеси. Коли громадяни засновують свої політичні думки та рішення щодо голосування на неправдивій інформації, яка виглядає достовірною, цілісність демократичних інститутів може бути підірвана. Вірусна природа цих підроблених відео означає, що виправлення та перевірка фактів часто не досягають тієї аудиторії, яка переглядала оригінальний оманливий вміст.
Соціальні медіа-платформи намагаються розробити ефективну відповідь на цю нову форму синтетичних медіа-маніпуляцій. Традиційних підходів до модерації вмісту, які покладаються на звіти користувачів і рецензентів, недостатньо для вирішення масштабу та складності дезінформації, створеної ШІ. Автоматизовані системи виявлення все ще знаходяться в зародковому стані й часто не в змозі визначити переконливі дипфейки, особливо ті, у яких не зображені люди.
Творці цих діпфейкових відео часто діють анонімно та використовують методи, щоб приховати свою особу та мотивацію. Деякі, здається, керуються політичними планами, тоді як інші, можливо, прагнуть залучити людей і отримати дохід за допомогою вірусного контенту. Міжнародний характер платформ соціальних медіа ускладнює органам влади розслідування та судове переслідування осіб, відповідальних за створення та розповсюдження оманливого контенту, створеного ШІ.

Освітні установи та медіаграмотність організації працюють над розробкою нових навчальних програм і ресурсів, щоб допомогти людям визначати синтетичні медіа та критично ставитися до вмісту, з яким вони стикаються в Інтернеті. Однак швидкі темпи технологічного прогресу означають, що методи виявлення та навчальні матеріали часто відстають від останніх можливостей deepfake. Навчання людей сумніватися в автентичності, здавалося б, реалістичних відео означає фундаментальну зміну нашого підходу до споживання медіа.
Не можна недооцінювати психологічний вплив впливу цих фальшивих відео. Навіть коли пізніше люди дізнаються, що контент був створений штучно, початкова емоційна реакція та ментальні образи можуть зберігатися та впливати на їхнє сприйняття реальності. Це явище, відоме як «ефект ілюзорної правди», означає, що неодноразове потрапляння неправдивої інформації може з часом зробити її більш достовірною, незалежно від її фактичної точності.
Дослідники, які вивчають поширення дезінформації, створеної штучним інтелектом, відзначають, що ці відео використовують існуючу соціальну тривогу щодо занепаду міст, державних витрат і безпеки громади. Представляючи вигадані сценарії, які відповідають існуючим страхам і упередженням людей, творці збільшують вірогідність того, що глядачі сприймуть вміст як справжній і поділяться ним з іншими, хто має подібні занепокоєння.
Міжнародні наслідки цієї тенденції виходять за межі Великої Британії, оскільки подібні тактики можуть застосовуватися для маніпулювання громадською думкою в інших країнах. Методи, використані для створення цих переконливих підроблених відео занепаду міст, можна легко адаптувати до різних націй, спільнот чи політичних систем. Це являє собою новий рубіж в інформаційній війні та пропаганді, що вимагає скоординованої міжнародної відповіді.

Джерело: BBC News


