El secretario de guerra de Estados Unidos, Pete Hegseth, exigió a Anthropic, una importante empresa de inteligencia artificial, que otorgue al Pentágono acceso ilimitado a su tecnología, generando un conflicto sobre seguridad nacional con Silicon Valley. El enfrentamiento, que ha generado críticas de expertos en ética y líderes tecnológicos, refleja tensiones crecientes entre el sector militar y el privado sobre el control y uso de la inteligencia artificial.
Conflicto sobre el acceso a la IA
Hegseth citó a Dario Amodei, CEO de Anthropic, en el Pentágono la semana pasada para exigirle que permita al ejército usar su modelo de IA, Claude, sin restricciones, siempre que la utilización fuera ‘legal’. Esta medida surge en un contexto de preocupaciones sobre el posible uso indebido de la IA en aplicaciones militares, especialmente en vigilancia y armas autónomas.
Amodei, quien ha defendido siempre el desarrollo ético de la IA, ha expresado claramente los riesgos de permitir que sistemas de IA poderosos se usen con fines militares. Ha destacado la necesidad de supervisión humana y los peligros de armas completamente autónomas, advirtiendo que tal tecnología podría crear un ‘ejército invencible’ capaz de reprimir el descontento dentro de un país.
Las preocupaciones de Amodei no son nuevas. En un ensayo de enero titulado ‘La adolescencia de la tecnología’, escribió que una IA plenamente poderosa podría estar a un o dos años de distancia y podría superar las capacidades humanas en campos como la biología, la programación y la ingeniería. También destacó el impacto psicológico de la IA en las personas, señalando el aumento de problemas de salud mental relacionados con la IA y el potencial de vigilancia masiva.
Las exigencias de Hegseth encontraron resistencia en Anthropic, que ha rechazado permitir que su modelo de IA se use para vigilancia o armas autónomas sin supervisión humana. La empresa ha declarado que no cumplirá con las demandas del Pentágono y el viernes anunció que demandará al gobierno por este asunto.
El rol de Trump en el conflicto
El presidente Donald Trump también se ha pronunciado sobre el conflicto, criticando a Anthropic y a sus empleados como ‘locos de izquierda’ por ayudar al Pentágono en sus esfuerzos por capturar al presidente venezolano Nicolás Maduro. Trump ordenó a todas las agencias federales que dejen de usar la tecnología de Anthropic, afirmando que la empresa intentaba ‘IMPOSAR’ al ejército para que siga sus términos de servicio en lugar de la Constitución.
Los comentarios de Trump han generado dudas sobre el enfoque del gobierno en la regulación de la IA. Su administración ha sido acusada de tener un ‘desprecio saludable por la democracia’, especialmente en sus intentos por socavar la integridad electoral y controlar la narrativa sobre el desarrollo de la IA.
A principios de este año, Hegseth revocó los pasaportes de los periodistas que no firmaron una declaración restringiendo su reportaje sobre ciertos temas. Este movimiento, junto con las acciones recientes de Trump, ha generado preocupaciones sobre las tendencias autoritarias crecientes del gobierno.
El ultimátum de Hegseth a Anthropic fue que permitiera al Pentágono usar su modelo de IA sin restricciones o enfrentaría una designación como ‘riesgo para la cadena de suministro’, lo que pondría en peligro los contratos gubernamentales de la empresa. Este ultimátum puso a Anthropic en una difícil situación, obligándola a elegir entre cumplir o enfrentar acciones legales.
Acuerdo de OpenAI con el Pentágono
Sam Altman, CEO de OpenAI, anunció el viernes que su empresa había alcanzado un acuerdo con el ‘Departamento de Guerra’ para usar su tecnología de IA en trabajos clasificados. Los términos del acuerdo incluyeron líneas rojas similares a las que Amodei buscó para Anthropic. Altman elogió al Pentágono por su ‘profundo respeto por la seguridad’ y su disposición para colaborar en el desarrollo de la IA.
El contraste entre el acuerdo de OpenAI y la negativa de Anthropic ha generado preguntas sobre las motivaciones del gobierno. Algunos analistas creen que la administración podría tener un sesgo ideológico contra Anthropic, que se considera más ‘progresista’ que OpenAI. Otros especulan que la relación personal de Altman con Trump pudo haber influido en el logro del acuerdo.
Amodei, sin embargo, no ha cedido. En un comunicado, dijo que Anthropic demandará al gobierno por este asunto, llamando las acciones del gobierno ‘fundamentalmente incompatibles con los principios estadounidenses’. Destacó que Anthropic tiene principios y que el gobierno es el que no se alinea con los valores estadounidenses.
El conflicto resalta la creciente tensión entre el sector militar y el privado sobre el control de la tecnología de IA. A medida que la IA continúa evolucionando, la pregunta de quién debe regular su uso y con qué fines sigue siendo una preocupación urgente.
La situación también ha llamado la atención sobre las implicaciones más amplias de la IA en la seguridad nacional. Los expertos advierten que si no se controla, la IA podría usarse para vigilancia masiva, armas autónomas y otras aplicaciones que podrían socavar instituciones democráticas. El conflicto entre la administración de Trump y Anthropic es solo un ejemplo de los desafíos que se avecinan en la regulación de la IA.
Comments
No comments yet
Be the first to share your thoughts