El CEO de Anthropic, Dario Amodei, rechazó cumplir con un ultimátum del Pentágono que exigía a la empresa de inteligencia artificial relajar sus restricciones éticas sobre el uso de su tecnología, arriesgando una designación como riesgo en la cadena de suministro y la pérdida de su contrato de defensa. El plazo para decidir vence a las 5:01 p.m. hora del este el viernes, y Amodei declaró que su empresa ‘no puede acceder a esa demanda con buena conciencia’.

Riesgo en la cadena de suministro y salvaguardias éticas

La exigencia del Pentágono surge en un momento en que Anthropic, conocida por su avanzado chatbot Claude, ha crecido rápidamente desde un pequeño laboratorio de investigación en San Francisco hasta convertirse en una de las startups de IA más valiosas del mundo. La empresa ha buscado garantías de que su tecnología no se utilice para vigilancia de masa ni en armas completamente autónomas, pero según Anthropic, el lenguaje propuesto en el contrato del Pentágono ‘se presentó como una concesión, pero con cláusulas legales que permitirían ignorar esas salvaguardias a voluntad’.

Si Amodei no cumple, los oficiales militares advirtieron que no solo terminarán el contrato de Anthropic, sino que también ‘los designarán como un riesgo en la cadena de suministro’, una etiqueta habitualmente reservada para adversarios extranjeros. Esta designación podría interrumpir las asociaciones de la empresa con otras empresas y poner en peligro sus planes de expansión.

Reacciones del sector y carta abierta

El enfrentamiento ha recibido el apoyo de investigadores de IA de primer nivel y trabajadores de empresas competidoras como OpenAI y Google. En una carta abierta, empleados de estas empresas expresaron su solidaridad con la postura de Amodei, afirmando que el Pentágono intenta ‘dividir a cada empresa con el miedo de que la otra ceda’.

El CEO de OpenAI, Sam Altman, quien trabajó anteriormente con Amodei en OpenAI antes de cofundir Anthropic en 2021, expresó preocupación sobre el enfoque ‘amenazante’ del Pentágono en una entrevista con CNBC. Dijo: ‘En general confío en ellos como empresa, y creo que realmente se preocupan por la seguridad’. Altman también señaló que OpenAI y la mayoría del campo de la IA comparten líneas rojas similares sobre el uso de sus tecnologías.

Elon Musk, otro actor principal en el espacio de la IA, tomó una postura diferente, apoyando al gobierno de Trump y criticando a Anthropic por supuestamente oponerse a la ‘civilización occidental’. Los comentarios de Musk respondieron a una versión anterior de los principios directrices de Anthropic que enfatizaban ‘la consideración de perspectivas no occidentales’.

Paralelos históricos y preocupaciones legales

El general retirado del Ejército del Aire Jack Shanahan, ex líder de las iniciativas de IA del Departamento de Defensa, expresó preocupaciones sobre el enfoque del Pentágono. Recordó la oposición de empleados de Google durante el proyecto Maven, que utilizaba IA para analizar imágenes de drones para operaciones militares. Shanahan, quien lideró ese proyecto, afirmó que está ‘comprensivo con la posición de Anthropic’ y cree que los modelos de IA utilizados en chatbots como Claude ‘no están listos para usarse en entornos de seguridad nacional’.

Sean Parnell, el portavoz principal del Pentágono, afirmó que el ejército ‘quiere usar el modelo de Anthropic para todos los propósitos legales’ y que ampliar el acceso evitaría que la empresa ‘ponga en peligro operaciones militares críticas’. Sin embargo, los funcionarios no han proporcionado detalles específicos sobre cómo planean usar la tecnología.

Durante una reunión entre el secretario de Defensa Pete Hegseth y Amodei, los oficiales militares advirtieron que podrían invocar la Ley de Producción de Defensa, una ley de la era de la Guerra Fría que otorgaría al ejército amplios poderes para usar los productos de Anthropic incluso si la empresa no lo aprueba. Amodei llamó esto una contradicción, señalando que una amenaza etiqueta a Anthropic como un riesgo para la seguridad, mientras que otra afirma que Claude es esencial para la seguridad nacional.

Amodei dijo que espera que el Pentágono reconsidere su postura, dada la importancia de Claude para el ejército. Si no lo hace, dijo, Anthropic ‘trabajará para facilitar una transición suave a otro proveedor’.

El debate sobre el uso ético de la IA en aplicaciones militares se ha intensificado a medida que las grandes empresas tecnológicas navegan el equilibrio entre la innovación y la responsabilidad. Con la posición de Anthropic ganando apoyo de jugadores clave del sector, la situación sigue siendo altamente tensa y podría influir en las políticas futuras sobre la gobernanza de la IA y la seguridad nacional.