Navegando por la censura de los chatbots de IA en China: descubriendo tácticas evasivas

Una investigación innovadora revela cómo los modelos chinos de IA se autocensuran y brindan respuestas inexactas para evitar temas políticos delicados, lo que arroja luz sobre el estado de la IA en China.
chinos con IA se enfrentan a un escrutinio a medida que investigadores de Stanford y Princeton descubren su tendencia a autocensurarse y proporcionar respuestas inexactas cuando se enfrentan a preguntas políticamente delicadas. Los hallazgos resaltan los desafíos que plantea el desarrollo de tecnología de IA en un entorno altamente regulado y las posibles implicaciones para el futuro de la inteligencia artificial en China.
El estudio, publicado en la revista Nature Machine Intelligence, analizó el comportamiento de varios modelos destacados de IA chinos, incluidos Ernie Bot de Baidu y AntChain de Alibaba, y los comparó con sus homólogos occidentales. Los investigadores descubrieron que los chatbots chinos eran más propensos a esquivar o dar respuestas evasivas a preguntas relacionadas con política, derechos humanos y otros temas controvertidos.
{{IMAGE_PLACEHOLDER}}Fuente: Wired


