O governo dos Estados Unidos suspendeu o uso da inteligência artificial Claude, desenvolvida pela empresa Anthropic, em órgãos federais devido a um impasse contratual. A decisão é tomada em um contexto de modernização militar e revela a dependência do Pentágono de fornecedores privados.
O Departamento de Guerra exigiu liberdade total para utilizar a IA em qualquer finalidade legal, enquanto a Anthropic se recusou, solicitando garantias de que sua tecnologia não seria utilizada para vigilância em massa ou em armas autônomas. Essa divergência resultou no rompimento dos contratos e em penalidades severas contra a companhia.
Com a crescente importância da IA nas estratégias militares, a tecnologia é essencial para analisar dados complexos, planejar ataques e fortalecer a cibersegurança. Modelos como o Claude já foram usados em operações reais em países como Venezuela e Irã.
A empresa foi classificada como um risco para a segurança nacional, o que impede que outros fornecedores da defesa americana realizem negócios com a Anthropic sem autorização. O Pentágono já iniciou negociações com concorrentes, como a OpenAI e a xAI, mas especialistas advertem que a troca de sistemas complexos pode ser demorada, resultando em perda de agilidade e aumento da dependência de poucos parceiros.
