Domingo, 08 de março de 2026
Por Redação do Jornal O Sul | 7 de março de 2026
Os Estados Unidos elaboraram novas regras para contratos de inteligência artificial que exigem que empresas permitam qualquer uso legal de seus modelos pelo governo, segundo reportagem do Financial Times publicada na sexta-feira (6).
A proposta surge em meio a um impasse entre o Pentágono e a empresa de tecnologia Anthropic. Na quinta-feira (5), o Pentágono classificou a companhia como “risco para a cadeia de suprimentos” e proibiu que contratadas do governo utilizem sua tecnologia em trabalhos para as Forças Armadas dos EUA.
A decisão foi tomada após meses de disputa. A empresa defendia a adoção de salvaguardas em seus sistemas de inteligência artificial, mas o Departamento de Defesa avaliou que essas restrições eram excessivas.
Segundo um rascunho das diretrizes analisado pelo Financial Times, empresas que desejarem fechar contratos com o governo terão de conceder aos EUA uma licença irrevogável para usar seus sistemas de inteligência artificial para todos os fins legais.
As orientações foram elaboradas pela Administração de Serviços Gerais dos EUA (GSA, na sigla em inglês) e devem valer para contratos civis. De acordo com o jornal, a medida faz parte de um esforço mais amplo do governo para reforçar as regras de contratação de serviços de inteligência artificial.
Ainda segundo o Financial Times, a proposta segue linhas semelhantes a medidas que o Pentágono estuda adotar em contratos militares.
O rascunho também determina que as empresas contratadas não devem codificar intencionalmente julgamentos partidários ou ideológicos nas respostas produzidas pelos sistemas de inteligência artificial, segundo o jornal.
Além disso, as companhias terão de informar se seus modelos foram modificados ou configurados para cumprir qualquer estrutura de conformidade ou regulação de governos federais fora dos EUA ou de entidades comerciais, informou o Financial Times.
Uso militar
O secretário de Guerra de Trump, Pete Hegseth, já tinha ameaçado classificar a empresa como um risco na semana passada. Com a decisão oficializada, empresas do ramo militar nos EUA deverão cortar laços com a companhia.
Mesmo com a ordem contrária, os EUA usaram o Claude na ofensiva militar contra o Irã, segundo o The Wall Street Journal. O assistente costuma ajudar o Exército americano a fazer avaliações de inteligência, identificar alvos e simular cenários de batalha.
O acordo permitiria a militares americanos voltar a usar livremente modelos de inteligência artificial da Anthropic, e a empresa correria menos risco de ser considerada um risco.
Ele também poderia afetar os planos da rival OpenAI, dona do ChatGPT, que anunciou na última semana um acordo que liberou o uso de seus modelos de IA pelo Pentágono.
Avaliada em US$ 380 bilhões, a Anthropic foi a primeira a assinar um contrato com a defesa dos EUA para uso de modelos de IA para fins militares. O acordo de US$ 200 milhões foi firmado em julho de 2025 e, depois, foi assinado com outras empresas como a OpenAI e o Google.