Em menos de cinco semanas, a Anthropic — a empresa de inteligência artificial fundada por ex-funcionários da OpenAI e considerada a mais comprometida com segurança do setor — assinou um contrato de US$ 200 milhões com o Pentágono, viu seu modelo de IA ser usado em uma guerra real no Oriente Médio, foi banida pelo governo Trump, processou o governo dos EUA e ganhou uma liminar federal. Tudo isso enquanto o Claude ainda estava rodando nos sistemas de alvejamento do Exército americano.

Esta é a história mais importante da inteligência artificial em 2026. E ela ainda não terminou.


1. O Contrato: Como o Claude Entrou nos Sistemas Secretos do Pentágono

Em julho de 2025, a Anthropic assinou um contrato de US$ 200 milhões com o Departamento de Defesa dos EUA. A empresa se tornou a primeira empresa de IA de fronteira a implantar seus modelos nas redes classificadas do governo americano — incluindo laboratórios nacionais e clientes de segurança nacional.

O vetor de entrada foi a parceria com a Palantir, empresa de análise de dados com décadas de contratos militares. O Claude passou a ser o motor de linguagem dentro do Maven Smart System, a plataforma de IA do Pentágono que consolida oito ou nove sistemas de inteligência e alvejamento em um único ambiente digital.

O Maven ingere dados de imagens de satélite, feeds de drones, sinais de inteligência, radar e relatórios humanos. Algoritmos de aprendizado de máquina processam esse oceano de dados para identificar e priorizar alvos potenciais, recomendar armamentos e até avaliar os fundamentos legais de um ataque.

Por mais de um ano, o governo deixou o sistema Maven/Claude "amadurecer como uma ferramenta em uso diário na maior parte do militar". Até que chegou 28 de fevereiro de 2026.


2. A Guerra: Operation Epic Fury e o Claude no Campo de Batalha

Na manhã de 28 de fevereiro de 2026, os Estados Unidos e Israel lançaram a Operação Epic Fury, atacando 1.000 alvos no Irã nas primeiras 24 horas. Em meados de março, o número já havia ultrapassado 6.000.

Dois dias depois, a CBS News confirmou com duas fontes familiarizadas com o uso militar de IA: o Claude da Anthropic foi usado durante o ataque ao Irã. A confirmação oficial veio durante uma audiência no Senado americano, quando a Diretora de Informação do Pentágono, Kirsten A. Davies, admitiu o uso do modelo como parte da Operação Epic Fury.

"Pela primeira vez, os Estados Unidos estão usando IA para gerar alvos em operações de combate em larga escala." — The Hill, março de 2026

O CEO da Palantir, Alex Karp, confirmou na CNBC que o Claude continuava rodando dentro do sistema de alvejamento — mesmo depois de a Anthropic ter sido formalmente banida pelo governo.

O Bombardeio da Escola de Minab

Na manhã da operação, forças americanas atacaram a Escola Primária Shajareh Tayyebeh em Minab, no sul do Irã, matando entre 175 e 180 pessoas — a maioria delas meninas entre 7 e 12 anos.

A pergunta imediata foi: a IA havia selecionado a escola como alvo? A resposta, segundo a CNN, é mais sombria do que qualquer falha algorítmica:

O edifício havia sido classificado como instalação militar em um banco de dados da Agência de Inteligência de Defesa que não havia sido atualizado desde pelo menos 2016, quando imagens de satélite já mostravam a conversão para escola. Uma IA não matou aquelas crianças — pessoas deixaram de atualizar um banco de dados, e outras pessoas construíram um sistema rápido o suficiente para tornar esse erro letal.

Contexto: O Congresso americano escreveu ao Secretário de Defesa Pete Hegseth exigindo explicações sobre a extensão do uso de IA nos ataques. As perguntas sobre quem autorizou a guerra e se os ataques constituem crimes de guerra foram ofuscadas por debates técnicos sobre a IA — um deslocamento que preocupa analistas jurídicos.


3. O Conflito: O Pentágono Quer Armas Autônomas. A Anthropic Disse Não.

A raiz da crise está em uma negociação que começou a desmoronar em setembro de 2025, quando a Anthropic e o Pentágono tentavam fechar os termos de uso do Claude na plataforma GenAI.mil.

A posição do Pentágono era clara: queria acesso irrestrito ao Claude para todos os propósitos legais. A Anthropic se recusou a ceder em dois pontos:

O CEO da Anthropic, Dario Amodei, afirmou à CBS News que a empresa buscou traçar "linhas vermelhas" no uso governamental de sua tecnologia porque "acreditamos que cruzar essas linhas é contrário aos valores americanos."

O CTO do Pentágono, Emil Michael, respondeu de forma agressiva: declarou que é "antidemocrático" que a Anthropic imponha limites ao uso militar e que os EUA não deveriam depender de uma empresa privada para definir o que pode ou não ser feito com IA em cenários de guerra.


4. O Banimento: A Anthropic Vira "Risco à Cadeia de Suprimentos"

Em fevereiro de 2026, depois que as negociações fracassaram, o Secretário de Defesa Pete Hegseth declarou a Anthropic um "risco à cadeia de suprimentos" — uma designação historicamente reservada para adversários estrangeiros como China e Rússia, nunca antes aplicada publicamente a uma empresa americana.

A consequência imediata foi devastadora:

O presidente Trump foi além: publicou no Truth Social ordenando que agências federais "imediatamente cessem" todo uso da tecnologia da Anthropic, com prazo de seis meses para migração completa.

"NÓS vamos decidir o destino do nosso País — NÃO uma empresa de IA radical de esquerda fora de controle, administrada por pessoas que não têm ideia de como é o mundo real." — Donald Trump, Truth Social

Horas depois do banimento, o Pentágono fechou um novo contrato com a OpenAI — nas mesmas condições que a Anthropic havia recusado.


5. O Tribunal: A Juíza Federal Bloqueia o Governo Trump

A Anthropic processou o governo americano, argumentando que o banimento era ilegal e representava retaliação pela crítica pública da empresa às condições contratuais. Em 26 de março de 2026, a juíza federal Rita Lin, do Distrito Norte da Califórnia, concedeu uma liminar preliminar bloqueando tanto a designação de risco à cadeia de suprimentos quanto a ordem executiva de Trump.

Em uma decisão de 43 páginas com linguagem contundente, a juíza escreveu:

"Nada no estatuto vigente suporta a noção orwelliana de que uma empresa americana pode ser classificada como potencial adversária e sabotadora dos EUA por expressar discordância com a posição contratual do governo."

A juíza Lin concluiu que o governo havia atuado com retaliação à Primeira Emenda — punindo a Anthropic por trazer escrutínio público à postura de contratação do governo — e que o Pentágono havia violado o devido processo legal ao não dar à empresa aviso prévio ou oportunidade de resposta.

A Anthropic celebrou a decisão, afirmando estar "grata ao tribunal por agir rapidamente" e que permanece focada em trabalhar produtivamente com o governo para garantir que todos os americanos se beneficiem de uma IA segura e confiável.

A Batalha Ainda Não Terminou

Horas após a liminar, o CTO do Pentágono Emil Michael postou no X que a decisão continha "dezenas de erros factuais" e que a designação de risco à cadeia de suprimentos permanecia em vigor sob um estatuto separado (41 USC 4713) que, segundo ele, não estava sujeito à jurisdição da juíza na Califórnia.

Paralelamente, o caso segue em apelação no Tribunal de Circuito de Washington, D.C., onde o governo pode tentar suspender a liminar. A batalha judicial deve se arrastar por meses ou anos.


6. O Que Isso Significa para o Futuro da IA

Este episódio expõe uma tensão estrutural que não vai desaparecer: o conflito entre empresas de IA que estabelecem seus próprios limites éticos e governos que querem acesso irrestrito a tecnologias de fronteira.

Alguns pontos que analistas jurídicos e especialistas em governança de IA destacam:

"Uma empresa ter que traçar linhas é indicativo da falha do governo em fazê-lo." — Al Jazeera, março de 2026

Por trás das cortinas, segundo o Axios, alguns líderes dentro do governo federal ainda querem a Anthropic — tanto para operações de guerra quanto para defesa cibernética. Esses oficiais acreditam que a Anthropic é uma razão importante pela qual os EUA estão provavelmente 6 a 12 meses à frente da China no uso de IA para defesa nacional. Qualquer acordo provavelmente exigirá "mediação no nível de conselheiro matrimonial" entre o Secretário Hegseth e o CEO Dario Amodei.


O Que o Profissional Jurídico Deve Observar

Para advogados, cartórios e profissionais jurídicos brasileiros, este caso importa além da geopolítica:

IA com controle, transparência e sem rastros nos seus documentos.

O Locus IA foi construído com os mesmos princípios que a Anthropic defendeu no tribunal: nenhum documento seu fica retido em servidores de terceiros. Você usa a IA mais avançada do mundo com total soberania sobre seus dados.