Estudo conclui que chatbots chineses evitam temas políticos sensíveis

Modelos chineses de inteligência artificial tendem a recusar ou a responder de forma imprecisa a perguntas politicamente sensíveis, segundo um estudo publicado na revista PNAS Nexus.

A investigação analisou mais de 100 questões sobre política de Estado dirigidas a chatbots como BaiChuan, DeepSeek e ChatGLM, comparando-os com modelos desenvolvidos fora da China. Os investigadores consideraram indícios de censura quando os sistemas recusavam responder, contornavam o tema ou apresentavam informação imprecisa.

Questões sobre Taiwan, minorias étnicas ou figuras pró-democracia levaram frequentemente os modelos chineses a evitar respostas diretas ou a repetir a narrativa oficial. Em alguns casos, omitiram referências à chamada “Grande Muralha de Fogo”, sistema de controlo e filtragem da internet descrito pela Universidade de Stanford como um mecanismo estatal de vigilância online.

O estudo alerta que este tipo de filtragem pode ser difícil de detetar, já que os chatbots tendem a justificar ou suavizar a recusa de resposta. Ainda assim, os autores reconhecem que diferenças culturais e de treino dos modelos também podem influenciar os resultados.

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *

Subescreve a Newsletter

Artigos Relacionados

Japão encarece turismo com novas taxas e aumentos em 2026

Viajar para o Japão em 2026 poderá sair...

0

Cabo Verde e China reforçam cooperação com expansão do projeto “Cidade Segura”

O Governo de Cabo Verde assinou um novo...

0

Brasil: Cooperação com a China impulsiona produção de veículos híbridos flex

A cooperação industrial entre a China e o...

0