A Anthropic disse não ao Pentágono. E essa decisão pode mudar o rumo da inteligência artificial para sempre. Em fevereiro de 2026, a criadora do Claude — uma das IAs mais avançadas do mundo — recusou formalmente um contrato de vários bilhões de dólares com o Departamento de Defesa dos Estados Unidos para aplicações militares de sua tecnologia. Enquanto concorrentes como OpenAI, Google e Microsoft correm para lucrar com contratos de defesa, a Anthropic traçou uma linha ética no chão — e acendeu o maior debate sobre IA militar desde a criação do primeiro drone armado.

O Que Aconteceu: A Recusa Que Chocou Washington
Em 19 de fevereiro de 2026, o CEO da Anthropic, Dario Amodei, publicou um comunicado detalhado explicando por que a empresa não participaria do Programa JEDI-2 — o megacontrato de $10 bilhões do Pentágono para integrar IA de fronteira em operações militares.
Os fatos
| Aspecto | Detalhe |
|---|---|
| Contrato recusado | JEDI-2 (Joint Enterprise Defense Infrastructure 2) |
| Valor estimado | $10 bilhões (ao longo de 10 anos) |
| O que incluía | Análise de inteligência, logística militar, apoio à decisão tática |
| O que NÃO incluía | Armas autônomas letais (LAWS) |
| Quem aceitou | OpenAI, Google, Microsoft, Palantir |
| Reação do Pentágono | "Respeitamos a decisão, mas lamentamos" |
| Reação do mercado | Ações de competidores subiram; investidores da Anthropic divididos |
| Posição da Anthropic | "Nossa missão é IA segura, e uso militar é incompatível" |
O comunicado de Dario Amodei
O CEO foi direto:
"A Anthropic foi fundada com a missão de construir IA segura e benéfica. Após análise exaustiva, concluímos que não podemos garantir que nossa tecnologia, uma vez integrada a sistemas militares, permaneça dentro dos limites éticos que estabelecemos. A pressão por performance em contexto militar inevitavelmente erode salvaguardas de segurança. Por isso, declinamos."
O debate interno
Fontes dentro da Anthropic revelaram que a decisão não foi unânime:
- A favor da recusa: Equipe de segurança, pesquisadores de alinhamento, cofundadores
- Contra a recusa: Equipe comercial, investidores minoritários, conselheiros de defesa
- Argumento dos que queriam aceitar: "Se nós não fizermos, outros farão com menos cuidado"
- Argumento dos que recusaram: "Aceitar normaliza o uso militar de IA e enfraquece nossa posição ética"
Por Que Isso Importa: O Contexto da IA Militar

Para entender o peso da recusa da Anthropic, é preciso compreender o cenário atual da IA militar — e é mais avançado do que a maioria das pessoas imagina.
IA já em uso militar (2026)
| Aplicação | País | Status | Nível de autonomia |
|---|---|---|---|
| Drones kamikaze Lancet | Rússia | Operacional (Ucrânia) | Semi-autônomo |
| Iron Dome IA | Israel | Operacional | Decisão autônoma de interceptação |
| Project Maven | EUA | Operacional | Análise de imagens de vigilância |
| Sistema Harop | Israel/Azerbaijão | Operacional | Drone suicida autônomo |
| Loyal Wingman | EUA/Austrália | Teste | Drone de combate autônomo |
| SKYBORG | EUA | Teste | IA pilotando caças |
| Reconhecimento facial | China | Operacional | Identificação de alvos |
| Guerra cibernética IA | Múltiplos | Operacional | Ataques e defesa automatizados |
O dilema central
A questão ética fundamental é deceptivamente simples:
Deve uma máquina ter o poder de decidir quem vive e quem morre?
Mesmo que o contrato JEDI-2 não incluísse armas autônomas letais (LAWS), a Anthropic argumentou que a escalada é inevitável: uma IA treinada para análise de inteligência hoje será adaptada para targeting de alvos amanhã. A tecnologia não respeita cercas éticas uma vez que sai das mãos de seus criadores.
Quem Disse Sim: Os Concorrentes no Pentágono
Enquanto a Anthropic recusou, seus concorrentes correram para preencher o vácuo.
OpenAI
A OpenAI — que em 2023 proibia explicitamente uso militar em seus termos de serviço — removeu silenciosamente essa restrição em janeiro de 2024. Desde então:
- Fechou contrato com o Pentágono para Project Maven II
- Fornece GPT-4 para análise de inteligência da DARPA
- Cofundou iniciativa com a Palantir para "IA de defesa responsável"
- Sam Altman: "A melhor forma de garantir que IA militar seja ética é que empresas éticas a construam"
O Google cancelou o Project Maven original em 2018 após protestos de funcionários. Em 2025, voltou atrás:
- Assinou contrato de $1,2 bilhão com o Departamento de Defesa
- Fornece Gemini para análise de dados de inteligência
- Justificativa: "Apoiar democracias é um dever moral"
Microsoft
A Microsoft sempre foi aberta sobre contratos militares:
- Azure for Government — infraestrutura cloud classificada
- HoloLens IVAS para treinamento de combate ($22 bilhões)
- Copilot adaptado para inteligência militar
- Satya Nadella: "Forneceremos tecnologia para instituições democráticas eleitas"
A tabela comparativa
| Empresa | Posição sobre IA militar | Receita de defesa (2025, est.) |
|---|---|---|
| Anthropic | ❌ Recusa total | $0 |
| OpenAI | ✅ Aceita com "salvaguardas" | $500M+ |
| ✅ Aceita (mudou de posição) | $1,2B+ | |
| Microsoft | ✅ Sempre aceitou | $5B+ |
| Palantir | ✅ Core business | $3,5B+ |
| Meta | ⚠️ Ambígua | Uso indireto |
Os Argumentos: Quem Tem Razão?
Argumentos a favor do uso militar de IA
- "Se nós não fizermos, a China fará" — Os EUA não podem perder a corrida armamentista de IA para adversários que não têm restrições éticas
- "IA pode salvar vidas" — Análise mais precisa = menos civis mortos por erro humano
- "Democracias merecem as melhores ferramentas" — Negar IA ao exército enfraquece a defesa nacional
- "O gênio já saiu da lâmpada" — Melhor ter empresas éticas construindo IA militar do que deixar para atores irresponsáveis
- "Existem usos legítimos" — Logística, cibersegurança, busca e resgate não são "armas"
Argumentos contra o uso militar de IA
- "A escalada é inevitável" — Toda tecnologia militar começa como "defensiva" e acaba letal
- "Não há accountability" — Quem é responsável quando uma IA mata um civil? O programador? O general? A empresa?
- "Normaliza a desumanização" — Tirar humanos da decisão de matar remove o último freio moral
- "Os dados são enviesados" — IA treinada com dados enviesados pode discriminar racialmente em targeting
- "Precedente perigoso" — Se os EUA legitimam IA militar, todo país autoritário também o fará
- "A história ensina" — Armas nucleares eram "defensivas" também — até não serem mais
O Impacto: Consequências da Recusa
Para a Anthropic
Positivo:
- Fortaleceu a marca como "IA ética" — diferenciação competitiva
- Atraiu talentos que priorizam valores (recrutamento facilitado)
- Ganhou apoio de acadêmicos e reguladores europeus
Negativo:
- Perdeu $10 bilhões em receita potencial ao longo de 10 anos
- Investidores como Google (que tem 25% da Anthropic) ficaram divididos
- Concorrentes ganham vantagem financeira e acesso a dados militares
Para o mercado de IA
A recusa da Anthropic criou o que analistas chamam de "a linha ética da IA" — uma divisão formal entre empresas que aceitam e empresas que recusam uso militar. Isso pode levar a:
- Regulamentação — A UE já citou a posição da Anthropic como modelo
- Rotulagem — Propostas para indicar se uma IA tem ou teve uso militar
- Investimento ético — Fundos ESG podem priorizar empresas que recusam contratos militares
- Fragmentação — Um ecossistema de IA "civil" e outro "militar" separados
O Futuro: Regulamentação de IA Militar
Panorama global de regulamentação
| País/Bloco | Posição sobre IA militar | Status |
|---|---|---|
| EUA | Pró-IA militar com "salvaguardas" | Sem regulamentação vinculante |
| UE | IA Act proíbe certos usos de IA em aplicações de alto risco | Em vigor desde 2025 |
| China | Uso militar irrestrito interno, regulamenta uso civil | Duplo padrão |
| Reino Unido | Pró-IA militar, "regulamentação proporcional" | Framework voluntário |
| ONU | Debate sobre proibição de LAWS (armas autônomas letais) | Negociações estagnadas desde 2019 |
| Brasil | Sem posição clara | Acompanha ONU |
O que precisa acontecer
Especialistas em governança de IA convergem em algumas recomendações:
- Tratado internacional proibindo armas autônomas letais (LAWS) — análogo à Convenção de Armas Químicas
- Princípio de "controle humano significativo" — toda decisão letal deve ter um humano no loop
- Transparência obrigatória — empresas devem declarar se vendem IA para uso militar
- Testes de segurança — IA militar deve passar por avaliações independentes antes de deployment
- Responsabilidade legal — cadeia clara de responsabilidade para danos causados por IA militar
Conclusão: A Linha Na Areia
A recusa da Anthropic ao Pentágono não é apenas uma decisão comercial — é um ato de consciência em um momento em que a tecnologia está se movendo mais rápido que a ética. Em um mundo onde OpenAI, Google e Microsoft correm para armar a inteligência artificial, a Anthropic escolheu ser o adulto na sala.
A história julgará se essa foi sabedoria ou ingenuidade. Mas uma coisa é certa: quando a IA mais avançada do mundo diz "não" para a maior máquina militar do mundo, o mundo precisa parar e prestar atenção.
Porque a pergunta que a Anthropic respondeu — "há limites para o que a tecnologia deveria fazer?" — é a pergunta que definirá não apenas o futuro da IA, mas o futuro da humanidade.
Leia Também
Perguntas Frequentes
A Anthropic nunca vai trabalhar com militares?
A empresa deixou a porta entreaberta para "aplicações puramente defensivas e não-letais" no futuro, mas por enquanto a política é de recusa total a contratos do Departamento de Defesa. A posição pode evoluir dependendo do contexto geopolítico e da regulamentação.
O Claude pode ser usado para fins militares por outros?
Tecnicamente, os termos de uso da Anthropic proíbem uso militar. Na prática, é quase impossível impedir totalmente — qualquer pessoa com acesso à API pode usar o Claude para análise que pode ter aplicações militares. A Anthropic monitora e bloqueia usos detectados como militares.
Isso enfraquece a defesa dos EUA?
A recusa de uma empresa não enfraquece significativamente a defesa americana — OpenAI, Google, Microsoft e Palantir preenchem o vácuo. O impacto é mais simbólico do que operacional. No entanto, se mais empresas seguirem o exemplo da Anthropic, o efeito cumulativo poderia ser significativo.
Qual a diferença entre a posição da Anthropic e do Google?
O Google cancelou o Project Maven em 2018 após protestos internos, mas voltou atrás em 2025 e agora aceita contratos militares. A Anthropic mantém sua recusa desde a fundação da empresa em 2021 — a consistência é parte central de sua identidade corporativa.
Fontes: Anthropic Blog, The Information, WIRED, The Verge, Politico, Defense One, Reuters, Bloomberg, Congressional Research Service, SIPRI, Campaign to Stop Killer Robots, AI Now Institute, Center for AI Safety. Dados atualizados até 27 de fevereiro de 2026.





