IA tende a escolher escalada nuclear em simulações de guerra

Um estudo do King’s College London colocou modelos de IA como ChatGPT (OpenAI), Claude (Anthropic) e Gemini Flash (Google) a simular decisões de líderes de superpotências num cenário tipo Guerra Fria. O objetivo era perceber como reagiriam a uma crise militar.

Os resultados mostram que, em todas as simulações, pelo menos um modelo tentou escalar o conflito com ameaças nucleares. Segundo o investigador Kenneth Payne, os sistemas trataram armas nucleares táticas como apenas mais um passo na escalada militar.

Entre os modelos testados, o Claude sugeriu ataques nucleares em cerca de 64% das simulações. O ChatGPT evitou normalmente essa opção em cenários abertos, mas quando havia pressão de tempo acabou por escalar o conflito. Já o Gemini Flash mostrou comportamento mais imprevisível, chegando em alguns casos a sugerir rapidamente um ataque nuclear.

Outro dado preocupante foi a quase ausência de desescalada. Apesar de terem várias opções para reduzir o conflito, os modelos raramente as utilizaram.

Os investigadores apontam que a IA pode tratar a guerra nuclear de forma abstrata, sem o peso emocional associado a eventos como os Bombardeamentos de Hiroshima e Nagasaki.

Apesar dos resultados, os autores sublinham que a IA não controla armas nucleares, mas o estudo levanta questões importantes sobre o uso destes sistemas no apoio a decisões militares.

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *

Subescreve a Newsletter

Artigos Relacionados

TJUE decide hoje futuro de 800 mil trabalhadores com contratos precários

O Tribunal de Justiça da União Europeia deverá...

0

Brasil regista melhor desempenho histórico no ranking da OCDE sobre dados abertos

O Brasil alcançou a 8ª melhor posição entre...

0

Hungria: Magyar promete reaproximar o país da UE após vitória eleitoral

O vencedor das eleições legislativas na Hungria, Péter...

0