Quase uma em cada cinco respostas de chatbots de inteligência artificial inclui fontes ligadas à propaganda russa, segundo um estudo do Institute for Strategic Dialogue (ISD), sediado no Reino Unido.
A investigação testou os sistemas ChatGPT (OpenAI), Gemini (Google), Grok (xAI) e DeepSeek V3.2, colocando-lhes mais de 300 perguntas em cinco línguas sobre a guerra na Ucrânia, com diferentes graus de neutralidade. As fontes russas surgiram com maior frequência quando as perguntas eram enviesadas ou maliciosas — como as que associavam falsamente refugiados ucranianos a terrorismo ou recrutamentos forçados.
O relatório indica que os modelos de IA tendem a refletir o “viés de confirmação” presente nas perguntas, imitando a linguagem do utilizador e recorrendo a fontes que reforçam essa perspetiva.
O ChatGPT citou três vezes mais fontes russas em perguntas enviesadas do que em neutras, enquanto o Grok apresentou o maior número de ligações a meios pró-Kremlin, mesmo em temas neutros.
Entre os sites mencionados estão a Sputnik, a Russia Today e o VT Foreign Policy, conhecidos por disseminar desinformação. Já o Gemini mostrou maior prudência, recusando-se a responder a perguntas consideradas manipuladoras.
Os investigadores alertam que os chatbots tendem a recorrer a propaganda russa sobretudo em áreas com falta de informação fiável — os chamados “vazios de dados” —, o que reforça o risco de difusão de desinformação automatizada em contextos sensíveis.