O chatbot de inteligência artificial Grok, desenvolvido pela empresa xAI de Elon Musk, esteve no centro de uma polémica após responder repetidamente a perguntas com alegações sobre um suposto “genocídio branco” na África do Sul, mesmo quando os temas das perguntas não tinham qualquer relação com o país ou com política.
A cientista informática Jen Golbeck testou o sistema e confirmou que Grok introduzia o tema de forma sistemática, o que levantou suspeitas de manipulação intencional.
A xAI veio mais tarde reconhecer que houve uma “modificação não autorizada” no sistema, que levou à inclusão de respostas politizadas, violando as regras internas da empresa. As mensagens foram entretanto removidas.
Elon Musk, crítico da “IA woke” e próximo do presidente dos EUA, Donald Trump, tem defendido publicamente que há perseguição a brancos na África do Sul — uma alegação negada pelo governo sul-africano.
A controvérsia agravou-se com o anúncio de um programa norte-americano para acolher refugiados brancos sul-africanos.
O incidente levanta preocupações sobre o uso da IA para promover narrativas ideológicas e reforça a necessidade de maior transparência no funcionamento destes sistemas.