A União Europeia ambiciona posicionar-se como líder global na regulação da Inteligência Artificial (IA), através da Lei da IA aprovada em 2024, que estabelece quatro níveis de risco — do mínimo ao inaceitável — para o uso desta tecnologia.
Para apoiar a aplicação da legislação, a UE apresentou um Código de Conduta voluntário destinado a empresas que desenvolvem modelos generativos, como o ChatGPT, Gemini, Mistral ou Claude.
A adesão permite às tecnológicas demonstrarem conformidade com as regras europeias, embora algumas, como a Meta, critiquem o mecanismo, argumentando que pode travar a inovação. Já gigantes como a OpenAI e a Anthropic manifestaram apoio.
Segundo a nova lei, os modelos de IA de uso geral lançados no futuro terão de cumprir de imediato os requisitos, sob pena de multas que podem atingir 15 milhões de euros.
As empresas que rejeitarem o código ficarão sujeitas a maior escrutínio e encargos administrativos. A implementação será gradual até 2027, mas algumas disposições entram em vigor já este ano.
O código fornece orientações sobre direitos de autor, mitigação de riscos sistémicos e transparência. Para analistas, este enquadramento pode projetar a UE como o espaço mais fiável para o desenvolvimento e aplicação da IA, em contraste com os EUA e a China, que privilegiam sobretudo o investimento.
Laura Lázaro Cabrera, do Centro para a Democracia e Tecnologia, salienta que regulação e financiamento devem avançar lado a lado. A União Europeia anunciou mais de 200 mil milhões de euros em investimentos na área, reforçando a aposta em sistemas centrados nas pessoas e respeitadores dos direitos fundamentais.
Entre os riscos associados à IA generativa estão os deepfakes, o roubo de dados sensíveis e impactos na saúde mental, incluindo casos de suicídio. Cabrera defende que, além da pressão regulatória sobre as empresas, sejam criadas campanhas de literacia digital a nível europeu, para que os cidadãos compreendam melhor os benefícios e perigos desta tecnologia emergente.