Anthropic, una destacada empresa de inteligencia artificial con sede en San Francisco, presentó dos demandas en tribunales federales para desafiar la designación del Pentágono de la firma como ‘riesgo en la cadena de suministro’, tras su rechazo a permitir un uso militar ilimitado de su chatbot de inteligencia artificial, Claude. Las demandas, presentadas el lunes en California y en el tribunal de apelaciones federal de Washington, D.C., sostienen que las acciones del Pentágono son ilegales y una excesiva expansión del poder ejecutivo.
Desafío legal a la designación del Pentágono
El Pentágono designó formalmente a Anthropic como riesgo en la cadena de suministro la semana pasada, tras una disputa ampliamente publicitada sobre las posibles aplicaciones militares de su tecnología de inteligencia artificial. Esta designación impide efectivamente que la empresa participe en contratos de defensa y podría tener consecuencias graves para sus operaciones comerciales.
La demanda de Anthropic afirma que las acciones del gobierno son sin precedentes y violan las protecciones constitucionales para la libertad de expresión. La empresa sostiene que ningún estatuto federal autoriza las acciones del Pentágono y que la designación es una represalia ilegal contra su postura sobre la ética de la inteligencia artificial.
«La Constitución no permite que el gobierno use su poder enorme para castigar a una empresa por su expresión protegida», afirma la demanda. «Ningún estatuto federal autoriza las acciones tomadas aquí. Anthropic recurre al sistema judicial como último recurso para defender sus derechos y detener la campaña ilegal de represalias del Ejecutivo».
Ética de la inteligencia artificial y uso militar
Anthropic ha sido clara sobre su postura sobre el uso ético de la inteligencia artificial, especialmente en contra del uso de su tecnología para la vigilancia masiva de los estadounidenses y armas completamente autónomas. El secretario de Defensa, Pete Hegseth, y otros funcionarios insistieron públicamente en que la empresa debe aceptar «todos los usos legales» de Claude y amenazaron con sanciones si Anthropic no cumplía.
La designación de Anthropic como riesgo en la cadena de suministro representa un cambio significativo en la práctica anterior, ya que es el primer caso conocido en el que el gobierno federal ha utilizado esta autoridad contra una empresa estadounidense. Esta designación fue originalmente diseñada para prevenir que adversarios extranjeros comprometieran los sistemas de seguridad nacional, pero su aplicación a una empresa nacional ha generado dudas sobre su alcance y intención.
El presidente Donald Trump también anunció que ordenaría a las agencias federales que dejaran de utilizar la tecnología de Anthropic, aunque le otorgó al Pentágono seis meses para descontinuar productos profundamente integrados en sistemas militares clasificados, incluidos los utilizados en la guerra contra Irán.
Impacto en el negocio y los ingresos
Las demandas de Anthropic también mencionan otras agencias federales, incluidas las de Hacienda y Relaciones Exteriores, tras que funcionarios ordenaran a empleados que dejaran de usar los servicios de la empresa. La firma ha buscado aclarar que la sanción del gobierno de Trump se limita a contratistas militares que usen Claude en trabajos relacionados con la defensa.
Clarificar esta distinción es crucial para Anthropic, ya que la mayor parte de su proyectado ingreso de 14.000 millones de dólares este año proviene de empresas y agencias gubernamentales que utilizan Claude para tareas como el codificación informática. Según un anuncio reciente de inversión, la empresa tiene un valor de 380.000 millones de dólares, con más de 500 clientes que pagan al menos un millón de dólares anuales por sus servicios de inteligencia artificial.
Anthropic afirmó en un comunicado del lunes que «buscar una revisión judicial no cambia nuestro compromiso prolongado con el uso de la inteligencia artificial para proteger nuestra seguridad nacional, pero este es un paso necesario para proteger nuestro negocio, nuestros clientes y nuestros socios».
El Pentágono no comentó sobre las demandas, citando una política de no hablar sobre litigios en curso. Expertos en derecho sugieren que el resultado de estos casos podría establecer importantes precedentes sobre cómo el gobierno regula las tecnologías de inteligencia artificial y el equilibrio entre la seguridad nacional y los derechos corporativos.
A medida que se desarrolla el pleito legal, las implicaciones para Anthropic y la industria más amplia de inteligencia artificial siguen siendo inciertas. Las demandas podrían influir en futuras políticas sobre el uso de la inteligencia artificial en la defensa nacional y en el entorno regulatorio para tecnologías emergentes.
Comments
No comments yet
Be the first to share your thoughts