Um estudo do King’s College London colocou modelos de IA como ChatGPT (OpenAI), Claude (Anthropic) e Gemini Flash (Google) a simular decisões de líderes de superpotências num cenário tipo Guerra Fria. O objetivo era perceber como reagiriam a uma crise militar.
Os resultados mostram que, em todas as simulações, pelo menos um modelo tentou escalar o conflito com ameaças nucleares. Segundo o investigador Kenneth Payne, os sistemas trataram armas nucleares táticas como apenas mais um passo na escalada militar.
Entre os modelos testados, o Claude sugeriu ataques nucleares em cerca de 64% das simulações. O ChatGPT evitou normalmente essa opção em cenários abertos, mas quando havia pressão de tempo acabou por escalar o conflito. Já o Gemini Flash mostrou comportamento mais imprevisível, chegando em alguns casos a sugerir rapidamente um ataque nuclear.
Outro dado preocupante foi a quase ausência de desescalada. Apesar de terem várias opções para reduzir o conflito, os modelos raramente as utilizaram.
Os investigadores apontam que a IA pode tratar a guerra nuclear de forma abstrata, sem o peso emocional associado a eventos como os Bombardeamentos de Hiroshima e Nagasaki.
Apesar dos resultados, os autores sublinham que a IA não controla armas nucleares, mas o estudo levanta questões importantes sobre o uso destes sistemas no apoio a decisões militares.
