O Fundo das Nações Unidas para a Infância (Unicef) manifestou forte preocupação com o rápido crescimento de imagens sexualizadas de crianças geradas ou manipuladas através de inteligência artificial (IA), alertando que este fenómeno constitui uma forma de abuso sexual infantil com impacto real e imediato. A organização sublinha que os chamados deepfakes envolvendo menores devem ser tratados como material de abuso sexual infantil e alvo de resposta legal urgente.
Segundo um estudo citado pelo Unicef, realizado em parceria com a Ecpat e a Interpol, pelo menos 1,2 milhão de crianças em 11 países afirmaram que as suas imagens foram manipuladas para criar conteúdos sexualmente explícitos ao longo do último ano. Em alguns dos países analisados, os dados equivalem a uma em cada 25 crianças, revelando uma dimensão global e preocupante do problema.
A agência das Nações Unidas alerta ainda que este tipo de conteúdo, mesmo quando não envolve uma vítima imediatamente identificável, contribui para normalizar a exploração sexual infantil e dificulta o trabalho das autoridades na protecção de menores. O Unicef destaca que muitas crianças estão conscientes destes riscos e manifestam receio de que a IA seja usada para criar imagens falsas de teor sexual.
Perante este cenário, o Unicef apela a um reforço urgente das leis, defendendo que os governos alarguem as definições legais de abuso sexual infantil para incluir conteúdos gerados por IA. A organização pede também que as empresas tecnológicas e plataformas digitais adoptem medidas preventivas eficazes, reforcem a moderação de conteúdos e impeçam activamente a criação e disseminação deste material, sublinhando que “o dano é real e urgente” e que as crianças não podem esperar.