WASHINGTON — Las tensiones entre el Pentágono y Anthropic alcanzaron su punto máximo esta semana cuando el Departamento de Defensa consideró cancelar un contrato con la empresa de inteligencia artificial.

Los funcionarios de Defensa se frustraron con la reticencia de Anthropic para aceptar términos ampliados para su chatbot Claude. Según un informe del mes pasado, el Pentágono buscaba acceso para todos los usos legales. Las negociaciones se prolongaron.

El punto de ruptura llegó cuando se supo que Palantir, socio de Anthropic, utilizó Claude durante una operación para detener a Maduro en Venezuela. Anthropic consultó a Palantir sobre los detalles de ese despliegue. Los funcionarios del Pentágono reaccionaron rápidamente.

Incitados por las preguntas, el departamento amenazó con etiquetar a Anthropic como un riesgo para la cadena de suministro. Tales designaciones suelen apuntar a entidades extranjeras como Huawei, obligando al ejército a cortar relaciones comerciales. Anthropic posee una autorización única para manejar material clasificado entre los modelos de lenguaje grandes.

Esta etiqueta interrumpiría las relaciones solo meses antes de la esperada oferta pública inicial de Anthropic. La empresa, valorada en 18.400 millones de dólares en su última ronda de financiación, depende de contratos gubernamentales durante su rápido crecimiento.

El CEO de Anthropic, Dario Amodei, insistió en que la empresa carece de motivaciones políticas. En un comunicado, la empresa describió las conversaciones con el Pentágono como productivas. Según representantes de la empresa, la consulta a Palantir fue una revisión rutinaria en una discusión estándar.

Los detalles del uso de Claude en la operación contra Maduro aún son inciertos. Palantir, un importante contratista de defensa, integró el chatbot en sus plataformas. La operación se llevó a cabo durante un periodo de inestabilidad política en Venezuela el año pasado.

Los portavoces del Pentágono rechazaron hacer comentarios inmediatos sobre la amenaza. Una fuente del departamento confirmó la escalada a The Wall Street Journal. El contrato de Anthropic, valorado en millones bajos, cubre el despliegue de Claude para tareas de seguridad nacional.

El conflicto destaca fricciones más profundas sobre la gobernanza de la IA. El Pentágono defiende el acceso amplio a herramientas de vanguardia. Startups como Anthropic priorizan medidas de seguridad y transparencia. Amodei ha abogado públicamente por limitaciones en aplicaciones militares de IA.

Incluso una resolución podría no resolver debates más amplios. ¿Quién controla IA poderosa: desarrolladores, usuarios finales o reguladores? Las preguntas persisten mientras el ejército estadounidense compite con China para integrar IA.

Anthropic lanzó Claude en 2023 como rival de ChatGPT de OpenAI. Apoyada por inversiones de Amazon y Google que suman miles de millones, la empresa destaca su IA constitucional para alinearse con los valores humanos. La empresa emplea a más de 500 personas en San Francisco.

Los contratos de defensa forman una fracción de las ventas de Anthropic, superados ampliamente por acuerdos comerciales en la nube. Sin embargo, perder la autorización podría señalar riesgos para los inversores antes de la oferta pública inicial, que podría realizarse a mediados de 2025.

Observadores del sector ven el episodio como un caso prueba. Disputas similares han surgido con otros proveedores de IA. OpenAI enfrentó escrutinio sobre vínculos militares antes de enfocarse en el consumidor. xAI, la empresa de Elon Musk, busca abiertamente fondos de defensa.

Por ahora, ambas partes muestran disposición para negociar. Anthropic reafirmó su compromiso con la seguridad nacional de EE.UU. El Pentágono necesita expertise en IA mientras aumentan las cargas clasificadas.

El resultado podría transformar cómo las empresas de IA interactúan con el gobierno. Los desarrolladores podrían ajustar sus términos. Las fuerzas militares de todo el mundo se adaptarían en consecuencia.