Ferramentas de inteligência artificial como ChatGPT e Claude estão a ser usadas por cibercriminosos para lançar ataques cada vez mais sofisticados, segundo um relatório recente que revela uma violação massiva de dados no México.
O ataque terá comprometido nove agências governamentais e exposto dados de milhões de cidadãos. De acordo com o relatório, os hackers recorreram à IA para automatizar tarefas que antes exigiam equipas inteiras, reduzindo drasticamente o tempo necessário para invadir sistemas.
Entre o final de 2025 e o início de 2026, cerca de 75% dos ataques analisados já envolveram o uso direto de IA. Neste caso, foi criada uma ferramenta com milhares de linhas de código em Python ligada à API da OpenAI, permitindo processar operações complexas em poucas horas.
Os atacantes terão desenvolvido centenas de scripts e exploits personalizados, explorando vulnerabilidades específicas antes que os sistemas de segurança conseguissem reagir.
Especialistas alertam, no entanto, que medidas básicas — como atualizações regulares, segmentação de redes e boas práticas de segurança — poderiam ter evitado o ataque.
O caso ilustra uma mudança profunda na cibersegurança: a IA está a tornar os ataques mais rápidos, acessíveis e difíceis de travar, obrigando empresas e governos a acelerar a adoção de defesas igualmente automatizadas.