A empresa de inteligência artificial Anthropic avançou com uma ação judicial contra a Casa Branca depois de ter sido sancionada pelo governo dos Estados Unidos por recusar que a sua tecnologia fosse utilizada em armas autónomas e em sistemas de vigilância de cidadãos americanos.
A decisão do governo liderado por Donald Trump classificou a empresa como um “risco para a cadeia de abastecimento”, uma designação normalmente aplicada a companhias estrangeiras consideradas adversárias, como a Huawei. A startup considera a medida ilegal e afirma que viola direitos constitucionais, incluindo a liberdade de expressão.
A Anthropic é responsável pelo modelo de inteligência artificial Claude, um dos sistemas mais avançados atualmente utilizados pelo Departamento de Defesa dos Estados Unidos para analisar informação sensível. Segundo relatos, a ferramenta também terá sido usada em operações relacionadas com o recente conflito entre os EUA, Israel e o Irão.
O CEO da empresa, Dario Amodei, afirmou que os atuais sistemas de IA ainda não são suficientemente fiáveis para operar armas totalmente autónomas e que a empresa não pretende desenvolver tecnologias que possam colocar em risco civis ou militares. O responsável também rejeitou o uso da tecnologia para vigilância em massa dentro dos Estados Unidos, considerando-o incompatível com valores democráticos.
A disputa entre o governo e a startup é vista como um teste importante sobre quem deve ter a última palavra no uso da inteligência artificial: o Estado ou as empresas que desenvolvem a tecnologia. O resultado do processo poderá influenciar a forma como outras empresas, como OpenAI, Google e Microsoft, definem limites para a utilização militar dos seus sistemas de IA.