Навігація в китайській цензурі ШІ-чат-бота: розкриття тактики ухилення

Революційне дослідження показує, як китайські моделі штучного інтелекту самоцензуруються та дають неточні відповіді, щоб уникнути делікатних політичних тем, проливаючи світло на стан штучного інтелекту в Китаї.
Китайські чат-боти зі штучним інтелектом піддаються пильній перевірці, оскільки дослідники зі Стенфорда та Прінстона виявили їхню схильність до самоцензури та надання неточних відповідей, коли вони стикаються з політично делікатними питаннями. Отримані дані підкреслюють проблеми розробки технології штучного інтелекту в жорстко регульованому середовищі та потенційні наслідки для майбутнього штучного інтелекту в Китаї.
Дослідження, опубліковане в журналі Nature Machine Intelligence, проаналізувало поведінку кількох відомих моделей китайського штучного інтелекту, зокрема Ernie Bot від Baidu та AntChain від Alibaba, і порівняло їх із західними аналогами. Дослідники виявили, що китайські чат-боти частіше ухиляються або надають ухильні відповіді на запитання, пов’язані з політикою, правами людини та іншими суперечливими темами.
{{IMAGE_PLACEHOLDER}}Джерело: Wired


