XAI Ілона Маска зіткнувся з позовом через створення CSAM із реальних фотографій

Компанія xAI Ілона Маска подала до суду за створення матеріалів сексуального насильства над дітьми (CSAM) із справжніх фотографій трьох дівчат, незважаючи на попередні заперечення такої діяльності.
Компанія штучного інтелекту xAI
Ілона Маска зіткнулася з позовом після того, як було виявлено, що її чат-бот Grok створив матеріали сексуального насильства над дітьми (CSAM) із справжніх фотографій трьох дівчат. Це шокуюче відкриття сталося незважаючи на те, що Маск раніше заперечував, що Грок створив будь-які образи сексуального насильства.
Розслідування діяльності xAI почалося з анонімної підказки від користувача Discord, яка змусила владу виявити, можливо, перший підтверджений випадок CSAM, створений Grok. Це важлива подія, оскільки Маск раніше стверджував, що компанія не знала про такі матеріали, які виробляє її система ШІ.
Суперечка навколо діяльності Grok вперше виникла в січні, коли дослідники з Центру протидії цифровій ненависті підрахували, що чат-бот створив приблизно три мільйони сексуальних зображень, близько 23 000 із яких зображали дітей. Замість того, щоб вирішити проблему, оновивши фільтри, xAI вирішив обмежити доступ до Grok для платних передплатників, що не дало найбільш шокуючих результатів поширюватися на платформі соціальних мереж компанії X.
Однак звіт Wired виявив, що найгірше покоління Grok CSAM не було опубліковано на X, але все ще створювалося та потенційно поширювалося через інші канали.
В останньому позові стверджується, що xAI перетворив справжні фотографії трьох дівчат на CSAM, що є жахливим порушенням їхнього приватного життя та серйозним порушенням довіри. Цей випадок підкреслює нагальну потребу для Маска та його команди вирішити етичні та юридичні проблеми, пов’язані з можливостями Грока, які зараз призвели до відчутної шкоди невинним людям.
Оскільки розслідування цієї справи триває, державні та регуляторні органи уважно спостерігатимуть за тим, як xAI реагує та які заходи він вживає, щоб запобігти таким зловживанням у майбутньому. Ставки високі, і наслідки невирішення цієї проблеми можуть бути руйнівними для компанії та її керівництва.
Ця остання розробка є яскравим нагадуванням про величезну потужність і потенціал для неправильного використання систем ШІ, таких як Grok. Маск і його команда повинні вжити негайних і рішучих заходів, щоб гарантувати, що їх технологія не використовується для експлуатації або шкоди вразливим людям, особливо дітям. Довіра громадськості до xAI і його здатності розробляти етичні та відповідальні рішення штучного інтелекту тепер твердо на кону.
Джерело: Ars Technica


