O Governo chinês manifestou preocupação com a crescente contaminação dos dados usados no treino de modelos de inteligência artificial, alertando para os riscos de desinformação, enviesamento e decisões automáticas erradas.
Num comunicado divulgado pelo Ministério da Segurança do Estado na rede social WeChat, é sublinhado que mesmo pequenas quantidades de dados falsos (0,001% a 0,01%) podem elevar significativamente os erros dos sistemas de IA.
A poluição de dados pode ainda perpetuar-se, já que conteúdos gerados artificialmente acabam por ser reintroduzidos em futuros treinos — criando um “efeito duradouro”.
O alerta destaca potenciais consequências reais, desde diagnósticos médicos incorretos, manipulação de mercados financeiros, até à desinformação em contextos de segurança pública. 
Como resposta, a China afirma ter implementado um sistema de classificação de dados com base nas leis de cibersegurança e proteção de dados, reforçando mecanismos de controlo e correção.
O país tem apostado fortemente em modelos de IA, como os da DeepSeek, Tencent ou Alibaba, mas persistem dúvidas sobre a censura aplicada a temas considerados sensíveis.
 
								