IA tende a escolher escalada nuclear em simulações de guerra

Um estudo do King’s College London colocou modelos de IA como ChatGPT (OpenAI), Claude (Anthropic) e Gemini Flash (Google) a simular decisões de líderes de superpotências num cenário tipo Guerra Fria. O objetivo era perceber como reagiriam a uma crise militar.

Os resultados mostram que, em todas as simulações, pelo menos um modelo tentou escalar o conflito com ameaças nucleares. Segundo o investigador Kenneth Payne, os sistemas trataram armas nucleares táticas como apenas mais um passo na escalada militar.

Entre os modelos testados, o Claude sugeriu ataques nucleares em cerca de 64% das simulações. O ChatGPT evitou normalmente essa opção em cenários abertos, mas quando havia pressão de tempo acabou por escalar o conflito. Já o Gemini Flash mostrou comportamento mais imprevisível, chegando em alguns casos a sugerir rapidamente um ataque nuclear.

Outro dado preocupante foi a quase ausência de desescalada. Apesar de terem várias opções para reduzir o conflito, os modelos raramente as utilizaram.

Os investigadores apontam que a IA pode tratar a guerra nuclear de forma abstrata, sem o peso emocional associado a eventos como os Bombardeamentos de Hiroshima e Nagasaki.

Apesar dos resultados, os autores sublinham que a IA não controla armas nucleares, mas o estudo levanta questões importantes sobre o uso destes sistemas no apoio a decisões militares.

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *

Subescreve a Newsletter

Artigos Relacionados

Venezuela: Presidente do Parlamento apela ao regresso dos emigrantes

O presidente da Assembleia Nacional da Venezuela, Jorge...

0

China trava compra da startup de IA Manus pela Meta

A China bloqueou a aquisição da startup de...

0

Chips chineses ganham terreno e desafiam domínio dos EUA

As restrições impostas pelos Estados Unidos ao acesso...

0