A inteligência artificial generativa está a transformar a forma como as empresas trabalham, ao automatizar processos e melhorar a deteção de ameaças. No entanto, esta evolução também está a ser explorada por cibercriminosos, que recorrem à IA para lançar ataques mais sofisticados e difíceis de detetar.
De acordo com o Digital Threats Report 2025 da Microsoft, grupos associados à Rússia, China, Irão e Coreia do Norte intensificaram o uso de IA em ciberataques e campanhas de desinformação. A tecnologia é já utilizada para criar e-mails de phishing mais credíveis, produzir deepfakes de executivos e desenvolver malware capaz de se adaptar em tempo real.
O relatório revela ainda que 66% das empresas estão a desenvolver, ou planeiam desenvolver, aplicações próprias de IA generativa, enquanto a maioria manifesta preocupação com riscos como a fuga de dados sensíveis e ataques de prompt injection. A forte dependência de infraestruturas em cloud e de grandes volumes de dados aumenta a exposição a falhas de segurança e dificulta a governação da informação.
A Microsoft identifica cinco principais ameaças associadas à IA generativa: envenenamento de dados de treino, ataques de evasão, extração funcional de modelos, ataques de inversão e manipulação através de prompt injection. Face a este cenário, a empresa defende uma abordagem de segurança proativa, com proteção integrada para ambientes de cloud e IA, capaz de detetar vulnerabilidades e responder rapidamente a novos ataques.
Com a crescente adoção da IA generativa, as organizações são chamadas a reforçar as suas estratégias de segurança, conciliando inovação, proteção de dados e cumprimento das exigências regulatórias.