Estudo conclui que chatbots chineses evitam temas políticos sensíveis

Modelos chineses de inteligência artificial tendem a recusar ou a responder de forma imprecisa a perguntas politicamente sensíveis, segundo um estudo publicado na revista PNAS Nexus.

A investigação analisou mais de 100 questões sobre política de Estado dirigidas a chatbots como BaiChuan, DeepSeek e ChatGLM, comparando-os com modelos desenvolvidos fora da China. Os investigadores consideraram indícios de censura quando os sistemas recusavam responder, contornavam o tema ou apresentavam informação imprecisa.

Questões sobre Taiwan, minorias étnicas ou figuras pró-democracia levaram frequentemente os modelos chineses a evitar respostas diretas ou a repetir a narrativa oficial. Em alguns casos, omitiram referências à chamada “Grande Muralha de Fogo”, sistema de controlo e filtragem da internet descrito pela Universidade de Stanford como um mecanismo estatal de vigilância online.

O estudo alerta que este tipo de filtragem pode ser difícil de detetar, já que os chatbots tendem a justificar ou suavizar a recusa de resposta. Ainda assim, os autores reconhecem que diferenças culturais e de treino dos modelos também podem influenciar os resultados.

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *

Subescreve a Newsletter

Artigos Relacionados

Brasil: Banco chinês e BNDES criam fundo de mil milhões de dólares para investimentos

O Export-Import Bank of China (CEXIM) vai investir...

0

União Europeia anuncia app de verificação de idade para proteger menores online

A Comissão Europeia anunciou o lançamento de um...

0

Reino Unido quer limitar “scroll infinito” nas redes sociais

O primeiro-ministro do Reino Unido, Keir Starmer, defendeu...

0