Microsoft y un grupo de exoficiales militares han unido fuerzas para bloquear la designación del gobierno de Trump de Anthropic como riesgo para la cadena de suministro. La medida se tomó tras que el secretario de Defensa, Pete Hegseth, etiquetara los productos de la empresa de inteligencia artificial como una amenaza para la seguridad nacional, lo que efectivamente la excluyó de contratos militares.

Desafío legal al decidimiento del Pentágono

En un reciente documento legal, Microsoft desafió la decisión del secretario de Defensa, Pete Hegseth, quien la semana pasada decidió excluir a Anthropic del trabajo militar citando sus productos de inteligencia artificial como una amenaza para la seguridad nacional. La empresa de software argumenta que esta designación es un uso indebido del poder gubernamental y podría tener consecuencias económicas graves que no están en el interés público.

El documento, presentado en un tribunal federal en San Francisco, donde tiene su sede Anthropic, afirma que la acción del Pentágono “obliga a los contratistas gubernamentales a cumplir con directrices vagas y mal definidas que nunca antes han sido públicamente aplicadas contra una empresa estadounidense”. Microsoft busca una suspensión temporal de la designación para permitir una discusión más “racional” entre Anthropic y el gobierno de Trump.

El pleito no solo lo está llevando a cabo Microsoft. Un grupo de 22 exoficiales de alto rango de las fuerzas armadas de Estados Unidos, incluyendo exsecretarios de la Fuerza Aérea, Ejército y Marina, así como un exjefe de la Guardia Costera, también presentaron un documento judicial. Afirman que las acciones de Hegseth son una venganza contra una empresa privada que ha descontentado a la dirección y advierten que el movimiento amenaza con los principios del estado de derecho que han fortalecido a las fuerzas armadas.

Preocupaciones éticas y disputas contractuales

La disputa con el Pentágono comenzó cuando Anthropic se negó a permitir un uso ilimitado de su modelo de inteligencia artificial, Claude, por parte de las fuerzas armadas. Esta negativa provocó un desacuerdo público con el gobierno de Trump, que luego ordenó a todas las agencias federales dejar de usar el modelo de inteligencia artificial. El presidente Donald Trump también emitió directivas para dejar de usar Claude en operaciones federales.

El documento legal de Microsoft respalda las dos líneas éticas de Anthropic que fueron un punto de conflicto en las negociaciones contractuales. La empresa afirmó que cree que la inteligencia artificial estadounidense no debe usarse para realizar vigilancia masiva doméstica o iniciar una guerra sin control humano. Esta postura, según Microsoft, es coherente con la ley y ampliamente apoyada por la sociedad estadounidense, como reconoce el gobierno.

El informe legal de Microsoft también destaca el posible impacto económico de la decisión del Pentágono. Como una importante contratista gubernamental, la empresa advierte que la designación de riesgo para la cadena de suministro podría provocar consecuencias financieras significativas y perturbar la industria de la inteligencia artificial en general.

Otras empresas tecnológicas y organizaciones también han manifestado su apoyo a Anthropic. Un grupo de desarrolladores de inteligencia artificial de Google y OpenAI, así como organizaciones como el Instituto Cato y la Fundación Frontera Electrónica, han presentado sus propios documentos legales en apoyo de la empresa.

Liderazgo militar y preocupaciones sobre la seguridad nacional

El grupo de exoficiales militares incluye figuras prominentes como el exdirector de la CIA Michael Hayden, un general retirado de la Fuerza Aérea, y el almirante retirado Thad Allen de la Guardia Costera, quien lideró la respuesta gubernamental al huracán Katrina. Su documento destaca que las acciones del Pentágono no están en el interés de la seguridad nacional, sino que socavan el estado de derecho.

La jueza federal Rita Lin, nominada al tribunal por el presidente Joe Biden en 2022, preside el caso en el tribunal federal de San Francisco. Anthropic también presentó un caso más estrecho en el tribunal de apelaciones federal en Washington, D.C. Lin ha programado una audiencia para el 24 de marzo.

Aunque ninguno de los documentos legales menciona directamente la guerra en Irán, que comenzó poco después de que Trump y Hegseth anunciaran su sanción contra Anthropic, los exoficiales militares han advertido que la incertidumbre repentina de apuntar una tecnología ampliamente integrada en plataformas militares podría perturbar el planificación y exponer a los soldados a riesgos durante operaciones en curso.

El actual comandante del Comando Central de Estados Unidos, el almirante Brad Cooper, confirmó en una reciente publicación en redes sociales que las fuerzas armadas están usando “herramientas de inteligencia artificial avanzadas” para “analizar grandes cantidades de datos en segundos”. Sin embargo, enfatizó que “los humanos siempre tomarán las decisiones finales sobre qué disparar y qué no disparar y cuándo disparar”.

Anthropic era, hasta hace poco, la única de sus compañías de su tipo aprobada para su uso en redes militares clasificadas. Sin embargo, debido a la disputa con el Pentágono, los oficiales militares han indicado que están buscando trasladar ese trabajo a competidores como Google, OpenAI y xAI de Elon Musk.