Según múltiples informes, el Pentágono usó la inteligencia artificial Claude de Anthropic en ataques contra Irán el 28 de febrero, pese a un conflicto sobre límites éticos y una prohibición posterior por parte de la administración Trump. Esto marca el primer uso confirmado de un modelo de lenguaje grande (LLM) en una operación militar real, señalando una nueva era en la guerra donde la IA desempeña un papel central en inteligencia, enfoque de objetivos y simulaciones.

Integración de la IA en el Pentágono

El Departamento de Defensa de Estados Unidos ha estado acumulando modelos y herramientas de IA para la guerra desde al menos 2024. En julio de 2025, el Pentágono otorgó a Anthropic un contrato por hasta 200 millones de dólares para servicios de IA, incluyendo el uso de sus modelos Claude. Los registros públicos muestran que solo una pequeña parte del contrato había sido pagada para principios de 2026, lo que indica una integración gradual en lugar de una compra única.

Anthropic comenzó una participación significativa con las agencias de defensa y inteligencia de Estados Unidos a finales de 2024. En noviembre de 2024, la empresa se asoció con Palantir y Amazon Web Services para suministrar Claude a sistemas de defensa e inteligencia de Estados Unidos, incluyendo entornos clasificados. En junio de 2025, Anthropic presentó Claude Gov, una versión adaptada para flujos de trabajo gubernamentales y de seguridad nacional, que se usaba activamente en agencias de inteligencia y defensa de Estados Unidos a finales de 2025.

Rol de Claude en los ataques a Irán

Según los informes, los modelos de IA Claude de Anthropic se usaron en la evaluación de inteligencia, identificación de objetivos y simulación de escenarios de batalla para las fuerzas militares de Estados Unidos. El Comando Central de Estados Unidos (Centcom) en el Medio Oriente usó los modelos para procesar y analizar grandes cantidades de datos, incluyendo interceptaciones, imágenes satelitales y inteligencia de señales, para generar resúmenes, evaluaciones de amenazas e informes sobre la situación.

Los modelos de IA de Anthropic no se usaron para controlar independientemente los sistemas de armas durante el ataque a Irán. En su lugar, proporcionaron información, resúmenes y simulaciones a operadores humanos. Los informes indican que Claude no se usó para tomar decisiones letales sin supervisión humana y no actuó como el cerebro detrás de los ataques.

A pesar de una prohibición emitida por el presidente Donald Trump a finales de febrero, la integración de Claude en la evaluación de inteligencia, simulación de guerra e identificación de objetivos fue tan profunda que los ataques a Irán se llevaron a cabo con el apoyo de Claude durante el período de transición.

Disputa contractual y alternativas

La disputa entre el Pentágono y Anthropic se centró en los derechos de uso. El Pentágono exigió derechos más amplios para usar Claude para todos los propósitos legales, incluyendo posibles objetivos en el campo de batalla y apoyo a armas. Anthropic se negó a eliminar sus restricciones éticas, que forman parte de su marco de IA constitucional. Esto significa que Claude está programado para rechazar su uso en armas autónomas completamente letales y no autorizará ataques sin supervisión humana.

Los modelos ChatGPT y GPT series de OpenAI, incluyendo modelos LLM de vanguardia como o1 o sus sucesores, se han usado según informes por el Pentágono. Tras la disputa con Anthropic, OpenAI alcanzó un nuevo acuerdo para la implementación en redes clasificadas de sus modelos y herramientas, con medidas de seguridad en vigor.

Alphabet, la empresa matriz de Google, ha proporcionado Gemini para el gobierno al Pentágono, disponible para uso no clasificado, incluyendo a través de la plataforma GenAI.mil que comenzó a implementarse a finales de 2025. La empresa ha estado en negociaciones para expandirse a sistemas clasificados.

xAI, la empresa matriz de Grok propiedad de Elon Musk, ha proporcionado un conjunto Grok para el gobierno para uso militar, inicialmente para tareas no clasificadas. La empresa firmó un acuerdo en febrero para su uso en sistemas clasificados también, posicionándola como una posible sustitución rápida ante el conflicto con Anthropic.

Con la retirada de Anthropic de términos ampliados, OpenAI y xAI intervinieron rápidamente para satisfacer las necesidades de IA clasificada del ejército estadounidense. Esto indica una creciente dependencia de la IA en operaciones militares, especialmente en la evaluación de inteligencia, identificación de objetivos y simulaciones operativas.

Una cosa ahora es muy clara: la IA se ha integrado profundamente en la planificación y ejecución militar de Estados Unidos a principios de 2026, especialmente en la evaluación de inteligencia, identificación de objetivos y simulaciones operativas. Eso se ha hecho evidente en los ataques a Irán. Se usará nuevamente. Ya estamos en la era de guerra de la IA.