Навигация по цензуре чат-ботов с искусственным интеллектом в Китае: раскрытие тактики уклонения

Инновационные исследования показывают, как китайский ИИ моделирует самоцензуру и дает неточные ответы, чтобы избежать деликатных политических тем, проливая свет на состояние ИИ в Китае.
Китайские чат-боты с искусственным интеллектом подвергаются пристальному вниманию, поскольку исследователи из Стэнфорда и Принстона обнаруживают их склонность к самоцензуре и даче неточных ответов при столкновении с политически чувствительными вопросами. Результаты подчеркивают проблемы разработки технологий искусственного интеллекта в строго регулируемой среде и потенциальные последствия для будущего искусственного интеллекта в Китае.
В исследовании, опубликованном в журнале Nature Machine Intelligence, анализировалось поведение нескольких известных китайских моделей ИИ, в том числе Ernie Bot от Baidu и AntChain от Alibaba, и сравнивалось их с западными аналогами. Исследователи обнаружили, что китайские чат-боты чаще уклонялись или давали уклончивые ответы на вопросы, связанные с политикой, правами человека и другими спорными темами.
{{IMAGE_PLACEHOLDER}}Источник: Wired


