A Austrália reforçou a proteção de menores na internet, estendendo a exigência de verificação de idade a videojogos para adultos, sites de conteúdo sexual e chatbots de inteligência artificial (IA). A nova legislação, que entra em vigor esta semana, obriga plataformas online a impedir o acesso de crianças a conteúdos potencialmente nocivos, como violência extrema, sexualidade explícita, suicídio, autoagressão ou distúrbios alimentares.
Julie Inman Grant, comissária australiana para a segurança online, explicou que sempre que uma criança pesquisar sobre suicídio ou autoagressão, o primeiro resultado será uma linha de apoio, evitando exposição a conteúdos prejudiciais.
A regra também se aplica a chatbots que geram material sexual ou gráfico, que agora devem confirmar se o usuário tem pelo menos 18 anos, tanto ao iniciar sessão quanto ao solicitar o conteúdo.
Esta medida segue a decisão de dezembro de 2025, quando a Austrália proibiu menores de 16 anos de criarem contas em redes sociais como Facebook, X, Instagram, TikTok, Snapchat, Threads, Twitch, Reddit e YouTube. A iniciativa tem inspirado debates sobre proteção digital em países europeus, incluindo Reino Unido, Portugal, França, Espanha, Itália, Grécia, Finlândia e Alemanha.