Anthropic recebe apoio de gigantes tecnológicos e militares em disputa judicial nos EUA

A Anthropic enfrenta uma ação judicial contra o Departamento de Guerra dos Estados Unidos, que classificou a empresa como “risco para a cadeia de abastecimento”, impedindo-a de participar em contratos militares. A Microsoft, antigos militares e grupos de reflexão em IA apoiam a Anthropic, alegando que a decisão é arbitrária e prejudica a competitividade do setor.

O conflito começou quando a Anthropic recusou dar acesso ilimitado ao seu chatbot Claude para uso militar, definindo limites contra vigilância doméstica e integração em armas autónomas. A empresa argumenta que certas utilizações da IA podem minar valores democráticos e não são seguras.

Pareceres apresentados por ex-responsáveis militares e engenheiros da OpenAI e DeepMind alertam que a classificação do Departamento de Guerra ameaça a segurança de operações em curso, o planejamento estratégico e a inovação tecnológica norte-americana. Organizações como a Electronic Frontier Foundation e o Cato Institute afirmam que a ação viola a Primeira Emenda e põe em risco a independência democrática.

A Microsoft defendeu as linhas vermelhas da Anthropic e pediu ao tribunal a suspensão temporária da classificação, sublinhando que a IA não deve ser usada para vigilância em massa nem para iniciar conflitos sem supervisão humana. O Departamento de Guerra anunciou que o Claude será retirado gradualmente das operações militares nos próximos seis meses.

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *

Subescreve a Newsletter

Artigos Relacionados

Europa atrasa-se na regulação dos drones e pode perder vantagem tecnológica

A Europa está a ficar para trás no...

0

China lança plano “AI+ Educação” para integrar inteligência artificial em todo o ensino

A China apresentou o programa nacional “AI+ Education”,...

0

EUA: Trump critica duramente Papa Leão XIV por posição sobre guerra

O presidente dos Estados Unidos, Donald Trump, lançou...

0