El asistente de inteligencia artificial Claude de Anthropic sufrió un corte global el 18 de marzo, dejando a los usuarios con mensajes de error ‘500 Internal Server Error’ y generando dudas sobre la estabilidad del sistema. El corte, que afectó tanto a los modelos Opus como a Sonnet, impactó principalmente a los usuarios del plan gratuito, quienes dependen de un número limitado de interacciones diarias antes de ser invitados a actualizarse.

Impacto en usuarios y flujos de trabajo

El corte comenzó cuando los usuarios encontraron un aumento repentino de ‘errores elevados’ en el sitio de monitoreo oficial de Anthropic. Esto generó confusión generalizada, ya que las personas no pudieron acceder a sus sesiones de chat, herramientas de programación ni aplicaciones móviles. Los informes inundaron las redes sociales, con usuarios expresando frustración ante la repentina inaccesibilidad de una herramienta en la que habían dependido para tareas diarias.

Un usuario tuiteó: ‘Claude Code está caído, básicamente un día de nieve’, mientras que otro escribió: ‘CLAUDE SE ESTÁ CAUSANDO FALLOS, ¿ESTÁ DE NUEVO CAÍDO? ¿qué hago ahora?’. Estas protestas digitales reflejaron el creciente dependencia de los asistentes de inteligencia artificial en entornos profesionales y académicos. El error ‘API 500’, que señalaba problemas internos en el servidor de Anthropic, efectivamente bloqueó a los usuarios de sus sesiones activas, interrumpiendo flujos de trabajo y productividad.

Plataformas de monitoreo independientes como Down Detector registraron miles de quejas, con un servicio que logró registrar más de 5,000 reportes en el pico del corte. Aunque el número eventualmente se redujo a alrededor de 1,000 en Estados Unidos a medida que la situación se estabilizaba, la magnitud de las quejas destacó el alcance del impacto. Los usuarios del plan gratuito fueron especialmente afectados, ya que no podían acceder a todas las funciones sin actualizar a una suscripción de pago.

Desafíos técnicos y respuesta de la empresa

El equipo técnico de Anthropic identificó rápidamente el fallo y comenzó las reparaciones, aunque la solución no fue inmediata. Según los datos oficiales de monitoreo de la empresa, el problema no resultó en un cierre total, pero la frecuencia de ‘errores elevados’ indicó un problema más amplio con la estabilidad del sistema. La empresa no ha proporcionado una explicación detallada de la causa raíz, aunque ha asegurado a los usuarios que el equipo técnico está trabajando para restaurar la funcionalidad completa.

El corte también ha renovado la atención sobre los crecientes desafíos que enfrenta Anthropic al escalar sus operaciones. La empresa recientemente introdujo herramientas que integran el contexto de un chatbot competidor en Claude, y Microsoft planea incorporar una función de colaboración con Claude en su suite de productividad. Sin embargo, este crecimiento rápido ha venido acompañado de preocupaciones legales y de seguridad, incluyendo un caso legal con el Departamento de Defensa de los Estados Unidos sobre una designación de ‘riesgo en la cadena de suministro’ y reportes de hackers explotando vulnerabilidades en el sistema.

En 2023, un hacker supuestamente utilizó Claude para infiltrarse en agencias gubernamentales mexicanas, extrayendo más de 150 GB de datos sensibles de impuestos y votantes. Estos incidentes de seguridad han planteado dudas sobre la confiabilidad y la seguridad de los sistemas de inteligencia artificial, especialmente a medida que se integran más en infraestructuras críticas y operaciones gubernamentales.

El modelo de niveles de Anthropic, que limita el número de interacciones diarias para los usuarios del plan gratuito, también ha sido objeto de crítica. Aunque la aplicación móvil de la empresa ha ganado popularidad, ascendiendo a la cima de los principales mercados de aplicaciones de Estados Unidos, la expansión rápida ha coincidido con una serie de desafíos legales y de seguridad. Esto ha dejado a muchos usuarios preguntándose si la empresa puede mantener la estabilidad y la seguridad de su plataforma a medida que continúa creciendo.

¿Qué sigue y perspectivas de analistas

El equipo técnico de Anthropic ha indicado que prioriza la recuperación de los modelos Opus y Sonnet, que son algunas de las características más utilizadas de la plataforma. Según los datos actuales de los sitios de monitoreo, la interrupción podría comenzar a disminuir a medida que se implementen estas correcciones. Sin embargo, los analistas están observando de cerca si los usuarios del plan gratuito siguen sufriendo el impacto principal y si los ‘errores elevados’ regresan a medida que la plataforma maneje más tráfico.

Los expertos sugieren que el corte podría tener implicaciones a largo plazo para Anthropic, especialmente si los usuarios pierden confianza en la confiabilidad del servicio. Con la creciente integración de herramientas de inteligencia artificial en flujos de trabajo cotidianos, cualquier interrupción prolongada podría llevar a un cambio en las preferencias de los usuarios, potencialmente afectando la trayectoria de crecimiento de la empresa.

Anthropic aún no ha proporcionado un cronograma detallado para la restauración completa del servicio, pero ha asegurado a los usuarios que está trabajando para resolver el fallo detectado y regresar a las operaciones normales. Por ahora, la pregunta sigue siendo: ¿Claude está caído, o finalmente está en línea nuevamente?