Modelos chineses de inteligência artificial tendem a recusar ou a responder de forma imprecisa a perguntas politicamente sensíveis, segundo um estudo publicado na revista PNAS Nexus.
A investigação analisou mais de 100 questões sobre política de Estado dirigidas a chatbots como BaiChuan, DeepSeek e ChatGLM, comparando-os com modelos desenvolvidos fora da China. Os investigadores consideraram indícios de censura quando os sistemas recusavam responder, contornavam o tema ou apresentavam informação imprecisa.
Questões sobre Taiwan, minorias étnicas ou figuras pró-democracia levaram frequentemente os modelos chineses a evitar respostas diretas ou a repetir a narrativa oficial. Em alguns casos, omitiram referências à chamada “Grande Muralha de Fogo”, sistema de controlo e filtragem da internet descrito pela Universidade de Stanford como um mecanismo estatal de vigilância online.
O estudo alerta que este tipo de filtragem pode ser difícil de detetar, já que os chatbots tendem a justificar ou suavizar a recusa de resposta. Ainda assim, os autores reconhecem que diferenças culturais e de treino dos modelos também podem influenciar os resultados.