Anthropic dijo no al Pentágono. Y esta decisión puede cambiar el rumbo de la inteligencia artificial para siempre. En febrero de 2026, la creadora de Claude — una de las IAs más avanzadas del mundo — rechazó formalmente un contrato multimillonario con el Departamento de Defensa de Estados Unidos para aplicaciones militares de su tecnología.

Qué Pasó: El Rechazo Que Sacudió Washington
El 19 de febrero de 2026, el CEO de Anthropic, Dario Amodei, publicó un comunicado explicando por qué la empresa no participaría del Programa JEDI-2 — el megacontrato de $10.000 millones del Pentágono para integrar IA de frontera en operaciones militares.
Los hechos
| Aspecto | Detalle |
|---|---|
| Contrato rechazado | JEDI-2 (Joint Enterprise Defense Infrastructure 2) |
| Valor estimado | $10.000 millones (a lo largo de 10 años) |
| Qué incluía | Análisis de inteligencia, logística militar, apoyo a decisión táctica |
| Qué NO incluía | Armas autónomas letales (LAWS) |
| Quién aceptó | OpenAI, Google, Microsoft, Palantir |
| Posición de Anthropic | "Nuestra misión es IA segura, y el uso militar es incompatible" |
Quién Dijo Sí: Los Competidores en el Pentágono

| Empresa | Posición sobre IA militar | Ingresos de defensa (2025, est.) |
|---|---|---|
| Anthropic | ❌ Rechazo total | $0 |
| OpenAI | ✅ Acepta con "salvaguardas" | $500M+ |
| ✅ Acepta (cambió de posición) | $1.200M+ | |
| Microsoft | ✅ Siempre aceptó | $5.000M+ |
| Palantir | ✅ Negocio principal | $3.500M+ |
El Dilema Central
La pregunta ética fundamental es engañosamente simple: ¿Debe una máquina tener el poder de decidir quién vive y quién muere?
Incluso si el contrato JEDI-2 no incluía armas autónomas letales, Anthropic argumentó que la escalada es inevitable: una IA entrenada para análisis de inteligencia hoy será adaptada para selección de objetivos mañana.
Los Argumentos: ¿Quién Tiene Razón?
A favor del uso militar de IA
- "Si nosotros no lo hacemos, China lo hará"
- "La IA puede salvar vidas" — análisis más preciso = menos civiles muertos
- "Las democracias merecen las mejores herramientas"
- "El genio ya salió de la lámpara"
En contra del uso militar de IA
- "La escalada es inevitable" — toda tecnología militar empieza como "defensiva"
- "No hay accountability" — ¿quién es responsable cuando una IA mata a un civil?
- "Normaliza la deshumanización"
- "Precedente peligroso" — si EE.UU. legitima la IA militar, todo país autoritario también lo hará
Conclusión: La Línea en la Arena
El rechazo de Anthropic al Pentágono no es solo una decisión comercial — es un acto de conciencia. La pregunta que Anthropic respondió — "¿hay límites para lo que la tecnología debería hacer?" — es la pregunta que definirá no solo el futuro de la IA, sino el futuro de la humanidad.
Lee También
Preguntas Frecuentes
¿Anthropic nunca trabajará con militares?
La empresa dejó la puerta entreabierta para "aplicaciones puramente defensivas y no letales" en el futuro, pero por ahora la política es de rechazo total a contratos del Departamento de Defensa.
¿Claude puede usarse con fines militares por otros?
Los términos de uso de Anthropic prohíben el uso militar. En la práctica, es casi imposible impedirlo totalmente. Anthropic monitorea y bloquea usos detectados como militares.
Fuentes: Anthropic Blog, The Information, WIRED, The Verge, Politico, Defense One, Reuters, Bloomberg, Congressional Research Service, SIPRI. Datos actualizados hasta el 27 de febrero de 2026.





