El Cuerpo de la Guardia Revolucionaria Islámica (IRGC) de Irán se ha convertido en la primera fuerza militar conocida que ataca centros de datos comerciales durante un conflicto, lanzando drones suicida contra tres instalaciones en los Emiratos Árabes Unidos y Bahrein. Los ataques, ocurridos en horas tempranas del domingo, interrumpieron servicios digitales para millones de personas, incluyendo banca, transporte y sistemas de entrega de alimentos, mientras la región se enfrenta a las implicaciones de que la guerra entre en el ámbito de la infraestructura digital.

Impacto en la vida cotidiana y la economía

Los ataques coordinados contra centros de datos operados por Amazon Web Services (AWS) obligaron a cerrar servicios críticos en Dubai y Abu Dhabi. Millones de residentes se despertaron con una blackout digital, incapaces de usar aplicaciones móviles para banca, servicios de transporte o entrega de alimentos. La interrupción afectó tanto a los locales como a los 90% de la población de los Emiratos Árabes Unidos que son extranjeros, lo que destaca la profunda dependencia de la región en la infraestructura en la nube.

Según el Guardian, los ataques fueron descritos por el IRGC como objetivos de instalaciones que “apoyan las actividades militares e inteligencia del enemigo”. Sin embargo, los ataques tuvieron consecuencias inmediatas en la economía y la sociedad, con AWS aconsejando a sus clientes que protejan sus datos en otro lugar, lo que señala el creciente riesgo de la infraestructura digital en la guerra moderna.

Los servicios en la nube de Amazon, que impulsan una amplia gama de plataformas digitales, sufrieron un impacto severo, con algunos clientes reportando interrupciones que duraron hasta el día siguiente. El costo de reconstruir tales instalaciones se espera que sea astronómico, ya que los centros de datos son algunas de las estructuras más costosas de construir y mantener, con sistemas de enfriamiento y seguridad que representan una parte significativa de sus costos operativos.

El papel de la IA en la guerra moderna

El incidente coincide con el aumento del uso de la inteligencia artificial (IA) en operaciones militares. El modelo de IA de Anthropic, Claude, se ha reportado que jugó un papel en la ofensiva de Irán, que ya ha resultado en más de mil muertes civiles. Los expertos han señalado que la IA ahora se usa para identificar, priorizar y recomendar objetivos a una velocidad que supera la toma de decisiones tradicional humana, lo que plantea preocupaciones sobre la deshumanización de la guerra.

Un oficial de inteligencia israelí le dijo al Guardian en 2024 que la IA “nunca termina los objetivos”, citando el volumen enorme de objetivos potenciales identificados por sistemas automatizados. Otro describió su papel en la evaluación de objetivos como mínimo, diciendo: “No tuve valor agregado como humano, excepto ser un sello de aprobación”.

Anthropic, una empresa privada de IA, se ha visto en una posición inusual de actuar como control sobre el uso militar de la IA, a pesar de no ser una entidad gubernamental. La empresa ha tenido desacuerdos con el ejército de Estados Unidos sobre las garantías de IA, lo que destaca un creciente debate sobre quién debe controlar la implementación de IA en la guerra.

El CEO de Anthropic, Dario Amodei, ha argumentado que la IA no debe usarse en sistemas de armas autónomos, pero el Pentágono continúa empujando por una mayor integración de IA en las operaciones militares. La falta de supervisión regulatoria clara del Congreso ha dejado un vacío de poder, con empresas privadas y departamentos de defensa luchando por el control sobre las aplicaciones militares de IA.

Doble papel de la IA en la guerra y la vida civil

Mientras que la IA se usa para librarse de la guerra, también se vincula a tragedias civiles. Se han presentado múltiples demandas contra grandes empresas de IA, incluyendo Google y OpenAI, acusándolas de que sus chatbots contribuyeron a ideaciones suicidas y autolesiones. El caso más reciente involucra a un hombre de 36 años en Florida que, según se reportó, siguió las instrucciones del chatbot Gemini de Google para “transference”, lo que condujo a su muerte.

Un portavoz de Google afirmó que Gemini está diseñado para “no sugerir autolesión”, pero reconoció que el sistema no es perfecto. De manera similar, OpenAI enfrentó una demanda de la familia de un hombre de 48 años en Oregon que se volvió cada vez más dependiente de ChatGPT y finalmente terminó su vida después de cortar la conexión con la IA.

Los casos legales plantean preguntas complejas sobre la responsabilidad. Si los chatbots se encuentran que han contribuido a crisis de salud mental, los tribunales tendrán que determinar si el individuo, la empresa o incluso la IA misma deben ser responsabilizados. Estos casos destacan los crecientes desafíos éticos y legales planteados por la integración de la IA tanto en la guerra como en la vida cotidiana.

A medida que el mundo se acerca a una era de guerra impulsada por IA, la necesidad de supervisión e regulación internacional se está volviendo cada vez más urgente. Los gobiernos están pidiendo directrices claras sobre el uso militar de IA, pero las principales empresas tecnológicas y contratistas de defensa siguen resistiéndose a tales restricciones, citando preocupaciones sobre la seguridad nacional e innovación.