Em menos de cinco semanas, a Anthropic — a empresa de inteligência artificial fundada por ex-funcionários da OpenAI e considerada a mais comprometida com segurança do setor — assinou um contrato de US$ 200 milhões com o Pentágono, viu seu modelo de IA ser usado em uma guerra real no Oriente Médio, foi banida pelo governo Trump, processou o governo dos EUA e ganhou uma liminar federal. Tudo isso enquanto o Claude ainda estava rodando nos sistemas de alvejamento do Exército americano.
Esta é a história mais importante da inteligência artificial em 2026. E ela ainda não terminou.
1. O Contrato: Como o Claude Entrou nos Sistemas Secretos do Pentágono
Em julho de 2025, a Anthropic assinou um contrato de US$ 200 milhões com o Departamento de Defesa dos EUA. A empresa se tornou a primeira empresa de IA de fronteira a implantar seus modelos nas redes classificadas do governo americano — incluindo laboratórios nacionais e clientes de segurança nacional.
O vetor de entrada foi a parceria com a Palantir, empresa de análise de dados com décadas de contratos militares. O Claude passou a ser o motor de linguagem dentro do Maven Smart System, a plataforma de IA do Pentágono que consolida oito ou nove sistemas de inteligência e alvejamento em um único ambiente digital.
O Maven ingere dados de imagens de satélite, feeds de drones, sinais de inteligência, radar e relatórios humanos. Algoritmos de aprendizado de máquina processam esse oceano de dados para identificar e priorizar alvos potenciais, recomendar armamentos e até avaliar os fundamentos legais de um ataque.
Por mais de um ano, o governo deixou o sistema Maven/Claude "amadurecer como uma ferramenta em uso diário na maior parte do militar". Até que chegou 28 de fevereiro de 2026.
2. A Guerra: Operation Epic Fury e o Claude no Campo de Batalha
Na manhã de 28 de fevereiro de 2026, os Estados Unidos e Israel lançaram a Operação Epic Fury, atacando 1.000 alvos no Irã nas primeiras 24 horas. Em meados de março, o número já havia ultrapassado 6.000.
Dois dias depois, a CBS News confirmou com duas fontes familiarizadas com o uso militar de IA: o Claude da Anthropic foi usado durante o ataque ao Irã. A confirmação oficial veio durante uma audiência no Senado americano, quando a Diretora de Informação do Pentágono, Kirsten A. Davies, admitiu o uso do modelo como parte da Operação Epic Fury.
"Pela primeira vez, os Estados Unidos estão usando IA para gerar alvos em operações de combate em larga escala." — The Hill, março de 2026
O CEO da Palantir, Alex Karp, confirmou na CNBC que o Claude continuava rodando dentro do sistema de alvejamento — mesmo depois de a Anthropic ter sido formalmente banida pelo governo.
O Bombardeio da Escola de Minab
Na manhã da operação, forças americanas atacaram a Escola Primária Shajareh Tayyebeh em Minab, no sul do Irã, matando entre 175 e 180 pessoas — a maioria delas meninas entre 7 e 12 anos.
A pergunta imediata foi: a IA havia selecionado a escola como alvo? A resposta, segundo a CNN, é mais sombria do que qualquer falha algorítmica:
O edifício havia sido classificado como instalação militar em um banco de dados da Agência de Inteligência de Defesa que não havia sido atualizado desde pelo menos 2016, quando imagens de satélite já mostravam a conversão para escola. Uma IA não matou aquelas crianças — pessoas deixaram de atualizar um banco de dados, e outras pessoas construíram um sistema rápido o suficiente para tornar esse erro letal.
Contexto: O Congresso americano escreveu ao Secretário de Defesa Pete Hegseth exigindo explicações sobre a extensão do uso de IA nos ataques. As perguntas sobre quem autorizou a guerra e se os ataques constituem crimes de guerra foram ofuscadas por debates técnicos sobre a IA — um deslocamento que preocupa analistas jurídicos.
3. O Conflito: O Pentágono Quer Armas Autônomas. A Anthropic Disse Não.
A raiz da crise está em uma negociação que começou a desmoronar em setembro de 2025, quando a Anthropic e o Pentágono tentavam fechar os termos de uso do Claude na plataforma GenAI.mil.
A posição do Pentágono era clara: queria acesso irrestrito ao Claude para todos os propósitos legais. A Anthropic se recusou a ceder em dois pontos:
- Vigilância em massa de cidadãos americanos: O modelo não poderia ser usado para monitoramento doméstico em larga escala.
- Armas totalmente autônomas: O Claude não poderia operar sistemas de armamento sem supervisão humana.
O CEO da Anthropic, Dario Amodei, afirmou à CBS News que a empresa buscou traçar "linhas vermelhas" no uso governamental de sua tecnologia porque "acreditamos que cruzar essas linhas é contrário aos valores americanos."
O CTO do Pentágono, Emil Michael, respondeu de forma agressiva: declarou que é "antidemocrático" que a Anthropic imponha limites ao uso militar e que os EUA não deveriam depender de uma empresa privada para definir o que pode ou não ser feito com IA em cenários de guerra.
4. O Banimento: A Anthropic Vira "Risco à Cadeia de Suprimentos"
Em fevereiro de 2026, depois que as negociações fracassaram, o Secretário de Defesa Pete Hegseth declarou a Anthropic um "risco à cadeia de suprimentos" — uma designação historicamente reservada para adversários estrangeiros como China e Rússia, nunca antes aplicada publicamente a uma empresa americana.
A consequência imediata foi devastadora:
- Amazon, Microsoft e Palantir foram notificadas de que precisariam certificar que não usam o Claude em qualquer trabalho com o governo.
- Empresas de defesa tech ordenaram a funcionários que parassem de usar o Claude imediatamente.
- Três contratos que somavam mais de US$ 180 milhões e estavam prestes a ser assinados foram cancelados.
- Departamentos do Tesouro, Estado e Saúde direcionaram funcionários a migrarem para outras ferramentas.
O presidente Trump foi além: publicou no Truth Social ordenando que agências federais "imediatamente cessem" todo uso da tecnologia da Anthropic, com prazo de seis meses para migração completa.
"NÓS vamos decidir o destino do nosso País — NÃO uma empresa de IA radical de esquerda fora de controle, administrada por pessoas que não têm ideia de como é o mundo real." — Donald Trump, Truth Social
Horas depois do banimento, o Pentágono fechou um novo contrato com a OpenAI — nas mesmas condições que a Anthropic havia recusado.
5. O Tribunal: A Juíza Federal Bloqueia o Governo Trump
A Anthropic processou o governo americano, argumentando que o banimento era ilegal e representava retaliação pela crítica pública da empresa às condições contratuais. Em 26 de março de 2026, a juíza federal Rita Lin, do Distrito Norte da Califórnia, concedeu uma liminar preliminar bloqueando tanto a designação de risco à cadeia de suprimentos quanto a ordem executiva de Trump.
Em uma decisão de 43 páginas com linguagem contundente, a juíza escreveu:
"Nada no estatuto vigente suporta a noção orwelliana de que uma empresa americana pode ser classificada como potencial adversária e sabotadora dos EUA por expressar discordância com a posição contratual do governo."
A juíza Lin concluiu que o governo havia atuado com retaliação à Primeira Emenda — punindo a Anthropic por trazer escrutínio público à postura de contratação do governo — e que o Pentágono havia violado o devido processo legal ao não dar à empresa aviso prévio ou oportunidade de resposta.
A Anthropic celebrou a decisão, afirmando estar "grata ao tribunal por agir rapidamente" e que permanece focada em trabalhar produtivamente com o governo para garantir que todos os americanos se beneficiem de uma IA segura e confiável.
A Batalha Ainda Não Terminou
Horas após a liminar, o CTO do Pentágono Emil Michael postou no X que a decisão continha "dezenas de erros factuais" e que a designação de risco à cadeia de suprimentos permanecia em vigor sob um estatuto separado (41 USC 4713) que, segundo ele, não estava sujeito à jurisdição da juíza na Califórnia.
Paralelamente, o caso segue em apelação no Tribunal de Circuito de Washington, D.C., onde o governo pode tentar suspender a liminar. A batalha judicial deve se arrastar por meses ou anos.
6. O Que Isso Significa para o Futuro da IA
Este episódio expõe uma tensão estrutural que não vai desaparecer: o conflito entre empresas de IA que estabelecem seus próprios limites éticos e governos que querem acesso irrestrito a tecnologias de fronteira.
Alguns pontos que analistas jurídicos e especialistas em governança de IA destacam:
- Ausência de regulação governamental: O Congresso americano ainda debatia linhas vermelhas para armas autônomas enquanto os EUA já usavam IA para gerar alvos em combate. A ausência de governança é, em si, um risco à segurança nacional.
- O modelo da OpenAI como precedente: A OpenAI aceitou as condições que a Anthropic recusou. Isso cria um precedente perigoso: empresas que impõem salvaguardas éticas perdem contratos milionários. O mercado pode passar a punir responsabilidade.
- Reação iraniana: O Irã concluiu que as big techs americanas são participantes ativas do conflito. A Agência de Notícias Tasnim publicou uma lista de alvos que incluía data centers da Amazon, Microsoft, Google e Oracle nos Emirados Árabes, Israel, Qatar e Bahrein. Ataques de drones iranianos já atingiram instalações da AWS.
- O papel dos juízes: A decisão da juíza Rita Lin sinaliza que os tribunais americanos estão dispostos a examinar a legalidade do uso governamental de IA, mesmo em contextos de segurança nacional. Isso pode abrir espaço para regulação via litígio.
"Uma empresa ter que traçar linhas é indicativo da falha do governo em fazê-lo." — Al Jazeera, março de 2026
Por trás das cortinas, segundo o Axios, alguns líderes dentro do governo federal ainda querem a Anthropic — tanto para operações de guerra quanto para defesa cibernética. Esses oficiais acreditam que a Anthropic é uma razão importante pela qual os EUA estão provavelmente 6 a 12 meses à frente da China no uso de IA para defesa nacional. Qualquer acordo provavelmente exigirá "mediação no nível de conselheiro matrimonial" entre o Secretário Hegseth e o CEO Dario Amodei.
O Que o Profissional Jurídico Deve Observar
Para advogados, cartórios e profissionais jurídicos brasileiros, este caso importa além da geopolítica:
- Controle sobre IA que você usa: O episódio demonstra que empresas de IA podem ter suas condições de uso alteradas por pressão governamental externa. Saber quem controla o modelo de IA que você usa é questão de conformidade, não apenas de conveniência.
- Armas autônomas e responsabilidade civil: O debate sobre quem é responsável por decisões tomadas por IA — humano ou máquina — está apenas começando. O caso do bombardeio da escola de Minab mostra que "a IA não errou, o banco de dados estava desatualizado" não é uma defesa jurídica satisfatória.
- Soberania de dados como princípio fundamental: O mesmo princípio que o CNJ exige dos cartórios no Provimento 213/2026 — não terceirize o controle dos seus dados a ninguém — é o que a Anthropic tentou impor ao Pentágono. Guardrails existem para proteger todos os lados.
IA com controle, transparência e sem rastros nos seus documentos.
O Locus IA foi construído com os mesmos princípios que a Anthropic defendeu no tribunal: nenhum documento seu fica retido em servidores de terceiros. Você usa a IA mais avançada do mundo com total soberania sobre seus dados.
Fontes
- CNN Business — Trump administration orders military contractors to cease business with Anthropic
- CBS News — Anthropic's Claude AI being used in Iran war by U.S. military, sources say
- The Hill — Anthropic's Claude used by Pentagon in war with Iran, official confirms
- CNBC — Defense tech companies are dropping Claude after Pentagon's Anthropic blacklist
- CNBC — Anthropic officially told by DOD that it's a supply chain risk even as Claude used in Iran
- CNBC — Judge presses DOD on why Anthropic's Claude was blacklisted
- CNBC — Anthropic wins preliminary injunction in DOD fight as judge cites 'First Amendment retaliation'
- CNN Business — Judge blocks Pentagon's effort to 'punish' Anthropic by labeling it a supply chain risk
- Washington Post — Anthropic's AI tool Claude central to U.S. campaign in Iran, amid a bitter feud
- Breaking Defense — Pentagon CTO says it's 'not democratic' for Anthropic to limit military use of Claude AI
- TechCrunch — Anthropic wins injunction against Trump administration over Defense Department saga
- Axios — Behind the Curtain: How Anthropic's Pentagon deal could get revived
- Anthropic — Statement on Department of War
- Fortune — Trump's strike on Iran and the new breed of AI wars
- Federal News Network — DoD 'confident' it can replace Anthropic's Claude within six months