Navigieren in Chinas KI-Chatbot-Zensur: Ausweichtaktiken aufdecken

Bahnbrechende Forschungsergebnisse zeigen, wie chinesische KI-Modelle sich selbst zensieren und ungenaue Antworten geben, um sensible politische Themen zu vermeiden, und werfen ein Licht auf den Zustand der KI in China.
Chinesische KI-Chatbots stehen auf dem Prüfstand, da Forscher aus Stanford und Princeton ihre Tendenz zur Selbstzensur und ungenauen Antworten aufdecken, wenn sie mit politisch sensiblen Fragen konfrontiert werden. Die Ergebnisse verdeutlichen die Herausforderungen der Entwicklung von KI-Technologie in einem stark regulierten Umfeld und die möglichen Auswirkungen auf die Zukunft der künstlichen Intelligenz in China.
Die in der Fachzeitschrift Nature Machine Intelligence veröffentlichte Studie analysierte das Verhalten mehrerer bekannter chinesischer KI-Modelle, darunter Ernie Bot von Baidu und AntChain von Alibaba, und verglich sie mit ihren westlichen Gegenstücken. Die Forscher fanden heraus, dass die chinesischen Chatbots eher dazu neigten, Fragen im Zusammenhang mit Politik, Menschenrechten und anderen kontroversen Themen auszuweichen oder ausweichende Antworten zu geben.
{{IMAGE_PLACEHOLDER}}Quelle: Wired


