Користувачі ChatGPT насильницькі повідомлення підняли тривогу місяцями раніше

Співробітники OpenAI повідомили про насильницькі розмови з ChatGPT із шутера Tumbler Ridge за кілька місяців до того, як стався трагічний інцидент.
За кілька місяців до нищівної масової стрілянини в середній школі Tumbler Ridge у Британській Колумбії в цифрових коридорах OpenAI вже з’являлися попереджувальні знаки. Джессі Ван Рутселар, особа, відповідальна за трагічні події, брав участь у глибоко тривожних розмовах з ChatGPT, які включали відверті описи насильства з використанням зброї та агресивних сценаріїв. Ці взаємодії були достатньо суттєвими, щоб запустити автоматизовані протоколи безпеки системи штучного інтелекту, що викликало тривогу в усій організації.
Обмін відбувся в червні, за кілька місяців до фактичного інциденту зі стріляниною. Детальні описи насильницьких сценаріїв Ван Рутселара були настільки тривожними, що вони активували вбудовані системи модерації вмісту ChatGPT, призначені для виявлення потенційно небезпечних комунікацій. Ці автоматичні засоби захисту представляють важливу лінію захисту безпеки штучного інтелекту, запрограмовану на виявлення мовних шаблонів, які можуть вказувати на реальні загрози чи шкідливі наміри.
Кілька співробітників OpenAI, які перевіряли позначений вміст, дедалі більше хвилювалися характером і специфікою запитів Ван Рутселара. Розмови виходили за рамки випадкової цікавості щодо насильства, натомість заглиблюючись у детальне планування та розробку сценаріїв, які співробітники сприймали як потенційно підготовчу поведінку. Співробітники, які зіткнулися з цими повідомленнями, визнали серйозний характер вмісту та зрозуміли потенційні наслідки для громадської безпеки.
Кілька занепокоєних співробітників взяли на себе ініціативу, щоб перенести свої занепокоєння вгору в корпоративній ієрархії, активно виступаючи за негайне втручання. Вони рекомендували керівництву OpenAI звернутися до правоохоронних органів, щоб повідомити про підозрілу діяльність і потенційно запобігти трагічному результату. Ці співробітники продемонстрували чітке усвідомлення своєї відповідальності за дії, коли їм надали інформацію, яка може свідчити про безпосередню загрозу громадській безпеці.

Однак, незважаючи на серйозні занепокоєння, висловлені багатьма співробітниками, виконавче керівництво OpenAI зрештою вирішило не звертатися до органів влади. Згідно з детальним звітом Wall Street Journal, керівники компанії дійшли висновку, що повідомлення Ван Рутселаара не відповідають порогу для створення «істотного та неминучого ризику серйозної фізичної шкоди іншим». Пізніше це рішення мало руйнівні наслідки для спільноти Tumbler Ridge.
Внутрішні дебати в OpenAI висвітлюють складні проблеми, з якими стикаються компанії зі штучним інтелектом, намагаючись збалансувати конфіденційність користувачів, свободу слова та проблеми громадської безпеки. Технологічні компанії, які керують великомасштабними системами штучного інтелекту, регулярно стикаються з контентом, який викликає питання етики та безпеки, що вимагає від них складних суджень щодо того, коли цифрова поведінка може призвести до реальної шкоди. Ці рішення часто передбачають порівняння неповної інформації з потенційними наслідками як дій, так і бездіяльності.
Справа про стрілянину в Tumbler Ridge викликає серйозні запитання щодо відповідальності компаній зі штучним інтелектом діяти щодо поведінки користувачів, виявленої їхніми системами. Хоча такі компанії, як OpenAI, запровадили складні системи модерації вмісту, призначені для виявлення потенційно шкідливих комунікацій, ефективність цих заходів безпеки в кінцевому підсумку залежить від людського судження та готовності інституцій вживати рішучих заходів, коли з’являються попередження.
Експерти галузі довго обговорювали відповідні протоколи для обробки загрозливого вмісту, виявленого за допомогою взаємодії ШІ. Деякі стверджують, що компанії мають моральне та, можливо, юридичне зобов’язання повідомляти владі про достовірні загрози, тоді як інші стверджують, що занадто широкі вимоги до звітності можуть підірвати довіру користувачів і спричинити негативний вплив на законні дослідження та творче самовираження. Баланс між цими конкуруючими інтересами залишається спірним питанням у сфері безпеки ШІ, що швидко розвивається.

Трагічний результат у середній школі Tumbler Ridge призвів до посилення перевірки процесу прийняття рішень OpenAI і підняв ширші питання щодо галузевих стандартів оцінки загроз. Критики стверджують, що керівництво компанії не виконало свій обов’язок захищати громадську безпеку, не вдаючись до чітких попереджувальних знаків, які ідентифікували їхні власні співробітники та системи. Цей випадок став центром дискусій про корпоративну відповідальність в епоху штучного інтелекту.
Після стрілянини прихильники безпеки штучного інтелекту закликали до більш надійних протоколів і чіткіших вказівок щодо поводження з потенційно небезпечним вмістом, виявленим за допомогою взаємодії штучного інтелекту. Вони стверджують, що компанії, які розробляють потужні системи штучного інтелекту, несуть особливу відповідальність перед суспільством, враховуючи унікальне розуміння поведінки та намірів користувачів, які вони отримують через свої платформи. Ці прихильники наголошують, що з великою технологічною потужністю пов’язана також велика відповідальність діяти в суспільних інтересах.
Цей інцидент також спонукав до повторного вивчення існуючої правової бази, яка регулює обов’язки технологічних компаній, коли вони стикаються з доказами потенційної злочинної діяльності. Чинні закони містять обмежені вказівки щодо зобов’язань компаній зі штучним інтелектом повідомляти про підозрілу поведінку, створюючи регуляторну сіру зону, яка може потребувати законодавчого роз’яснення, щоб запобігти подібним трагедіям у майбутньому.
Розгляд OpenAI справи Ван Рутселаара може стати прецедентом для того, як інші компанії зі штучним інтелектом підходять до подібних ситуацій у майбутньому. Технологічна індустрія уважно стежить за розвитком цієї справи, оскільки вона може вплинути на розробку галузевих стандартів і найкращих практик для протоколів оцінки загроз і звітності. Результат також може вплинути на регуляторні дискусії щодо обов’язкових вимог до звітності для компаній зі штучним інтелектом.
Ширші наслідки цієї справи виходять за межі OpenAI і охоплюють всю індустрію штучного інтелекту. Оскільки системи штучного інтелекту стають все більш складними та поширеними, вони неминуче стикаються з більшою кількістю користувачів, які можуть мати небезпечні наміри. Завдання для компаній полягає в розробці ефективних систем виявлення справжніх загроз, уникаючи помилкових спрацьовувань, які можуть призвести до непотрібного втручання правоохоронних органів або порушення прав користувачів на конфіденційність.
Надалі трагедія Tumbler Ridge служить яскравим нагадуванням про реальні наслідки, до яких можуть призвести рішення, прийняті в залах засідань компаній щодо цифрового контенту. Цей випадок підкреслює критичну важливість наявності чітких, чітко визначених протоколів для ескалації щодо поведінки користувачів і потреби компаній зі штучним інтелектом віддавати пріоритет громадській безпеці над іншими бізнес-міркуваннями, коли через їхні платформи виникають справжні загрози.
Джерело: The Verge


