A Anthropic enfrenta uma ação judicial contra o Departamento de Guerra dos Estados Unidos, que classificou a empresa como “risco para a cadeia de abastecimento”, impedindo-a de participar em contratos militares. A Microsoft, antigos militares e grupos de reflexão em IA apoiam a Anthropic, alegando que a decisão é arbitrária e prejudica a competitividade do setor.
O conflito começou quando a Anthropic recusou dar acesso ilimitado ao seu chatbot Claude para uso militar, definindo limites contra vigilância doméstica e integração em armas autónomas. A empresa argumenta que certas utilizações da IA podem minar valores democráticos e não são seguras.
Pareceres apresentados por ex-responsáveis militares e engenheiros da OpenAI e DeepMind alertam que a classificação do Departamento de Guerra ameaça a segurança de operações em curso, o planejamento estratégico e a inovação tecnológica norte-americana. Organizações como a Electronic Frontier Foundation e o Cato Institute afirmam que a ação viola a Primeira Emenda e põe em risco a independência democrática.
A Microsoft defendeu as linhas vermelhas da Anthropic e pediu ao tribunal a suspensão temporária da classificação, sublinhando que a IA não deve ser usada para vigilância em massa nem para iniciar conflitos sem supervisão humana. O Departamento de Guerra anunciou que o Claude será retirado gradualmente das operações militares nos próximos seis meses.