Un juez federal en California rechazó el intento del Pentágono de bloquear que Anthropic proporcione sus herramientas de inteligencia artificial a agencias gubernamentales, según el BBC. La jueza Rita Lin dictaminó el jueves que las directivas del ex presidente Donald Trump y del actual secretario de Defensa Pete Hegseth, que exigían un cese inmediato en el uso de las herramientas de Anthropic por parte de las agencias gubernamentales, no podían ejecutarse en este momento.
Disputa legal sobre inteligencia artificial y seguridad nacional
La decisión de la jueza Lin surgió tras que Anthropic, una empresa de inteligencia artificial con sede en San Francisco, presentara una demanda contra el Pentágono y varias otras agencias federales. La empresa argumentó que las acciones del gobierno violaban sus derechos de primer enmienda y ya habían comenzado a afectar su negocio.
En su fallo, la jueza Lin afirmó que el gobierno intentaba ‘deshabilitar a Anthropic’ y ‘reprimir el debate público’ sobre su tecnología. Señaló que las alegaciones del gobierno se basaban en preocupaciones sobre el uso de las herramientas de Anthropic por parte del Departamento de Defensa, pero que las acciones tomadas no estaban justificadas bajo las leyes de seguridad nacional.
«Esto parece ser una represalia clásica contra el primer enmienda», escribió la jueza en su orden. El fallo significa que las herramientas de Anthropic, incluyendo su chatbot de inteligencia artificial Claude, continuarán siendo utilizadas por agencias gubernamentales y por cualquier empresa externa que trabaje con el ejército hasta que se resuelva la demanda.
Una portavoz de Anthropic dijo que la empresa estaba «contenta» con el fallo del tribunal federal en California, pero añadió que su enfoque sigue siendo trabajar productivamente con el gobierno para garantizar que todos los estadounidenses beneficien de una inteligencia artificial segura y confiable.
Argumento del Pentágono y respuesta de Anthropic
El Pentágono argumentó en el caso que llegó a temer lo que Anthropic podría hacer con su tecnología, ampliamente utilizada en operaciones gubernamentales y militares, debido a su rechazo a aceptar nuevos términos contractuales. Según la defensa, eso creó una necesidad genuina para la etiqueta de riesgo en la cadena de suministro.
La jueza Lin señaló en su orden que Trump y Hegseth, en sus declaraciones públicas, se referían a Anthropic como ‘woke’ y compuesta por ‘locos de izquierda’, no por su falta de seguridad. «Si esto fuera simplemente un impasse contractual, el Departamento de Guerra probablemente habría dejado de usar Claude», escribió la jueza Lin, refiriéndose al Departamento de Defensa con su nombre alternativo. «Sin embargo, las acciones desafíadas van mucho más allá del alcance de lo que razonablemente podría abordar un interés nacional en seguridad».
Anthropic había estado negociando con el Departamento de Defensa durante meses antes de presentar su demanda sobre nuevas exigencias vinculadas a una expansión planeada de su contrato de 200 millones de dólares. El Pentágono quería que el contrato indicara que solo podría usar las herramientas de Anthropic para ‘cualquier uso legal’. Anthropic y su CEO Dario Amodei estaban preocupados porque eso abriría la puerta al uso de sus herramientas para la vigilancia masiva de los estadounidenses y armas completamente autónomas.
La disputa sobre los términos del contrato salió a la luz pública en febrero, cuando Hegseth estableció un plazo para que Anthropic aceptara sus nuevos términos contractuales. La empresa rechazó hacerlo, lo que llevó al conflicto legal.
Impacto en la inteligencia artificial y las operaciones gubernamentales
Las herramientas de Anthropic se utilizan actualmente en una variedad de operaciones gubernamentales y militares, y el fallo de la jueza significa que el uso de estas herramientas continuará hasta que se resuelva el conflicto legal. El caso ha llamado la atención sobre las crecientes preocupaciones sobre la tecnología de inteligencia artificial y su potencial uso en seguridad nacional y vigilancia.
El fallo también ha planteado preguntas sobre el equilibrio entre los intereses de seguridad nacional y la protección de la libertad de expresión. La decisión de la jueza Lin destaca el potencial para que las acciones del gobierno sean percibidas como un intento de suprimir el descontento o limitar el debate público sobre tecnologías emergentes.
Se espera que el caso tenga implicaciones más amplias sobre cómo las empresas de inteligencia artificial interactúan con el gobierno y cómo se abordan las preocupaciones de seguridad nacional en el contexto de la innovación tecnológica. El resultado podría influir en cómo otras empresas de inteligencia artificial navegan problemas similares en el futuro.
Los representantes de la Casa Blanca y el Departamento de Defensa no respondieron a las solicitudes de comentarios sobre el fallo. Anthropic ha declarado que continuará trabajando con el gobierno para garantizar que sus herramientas de inteligencia artificial se utilicen de una manera que beneficie al público, manteniendo los controles adecuados.
Comentarios
Aún no hay comentarios
Sé el primero en compartir tu opinión