O Governo dos Estados Unidos está em impasse com a tecnológica de inteligência artificial Anthropic, admitindo cancelar contratos militares caso a empresa não permita o uso irrestrito da sua tecnologia pelas Forças Armadas.
A empresa, criadora do chatbot Claude, recebeu em julho um contrato de 200 milhões de dólares (cerca de 167 milhões de euros) do Departamento de Defesa para desenvolver protótipos de IA aplicados à segurança nacional. Contudo, segundo relatos, o secretário da Defesa, Pete Hegseth, terá advertido que poderá rescindir o acordo e classificar a Anthropic como “risco para a cadeia de abastecimento” se não houver abertura total da tecnologia.
O diretor executivo da empresa, Dario Amodei, tem manifestado reservas éticas quanto ao uso militar sem controlo da IA, alertando para riscos como drones autónomos armados e vigilância em massa.
A possível classificação como risco poderia impedir a Anthropic de celebrar novos contratos públicos nos EUA. Paralelamente, a empresa anunciou alterações à sua política interna de segurança, defendendo que interromper o desenvolvimento enquanto concorrentes avançam sem salvaguardas poderá tornar o ecossistema global menos seguro.