Anthropic está investigando una denuncia de que un pequeño grupo de personas obtuvo acceso no autorizado a su modelo Claude Mythos — la herramienta de ciberseguridad que la empresa de inteligencia artificial afirma que es demasiado poderosa para liberarla al público, según un informe de la BBC.
Preocupaciones por la seguridad de modelos avanzados de IA
“Estamos investigando un informe que afirma que se obtuvo acceso no autorizado al Claude Mythos Preview a través de uno de nuestros entornos de proveedores externos”, dijo la empresa en un comunicado. Actualmente no hay indicios de que actores maliciosos hayan logrado hacerse con el modelo, y Anthropic afirma que no tiene evidencia de que sus sistemas estén afectados.
Pero el informe sobre el acceso por usuarios no autorizados plantea preguntas sobre la capacidad de las grandes empresas de IA para evitar que sus modelos avanzados terminen en manos equivocadas. Esto fue “probablemente a través de un mal uso del acceso, más que un hackeo clásico”, según Raluca Saceanu, directora ejecutiva de la empresa de ciberseguridad SmartTech.
Uso de modelos de IA para ciberseguridad
Anthropic ha liberado el modelo Mythos a algunas empresas tecnológicas y financieras para ayudarles a proteger sus sistemas contra su capacidad informada para explotar vulnerabilidades; Pero eso depende de que esas empresas aseguren que su propio acceso esté estrictamente controlado.
La persona ya tenía permiso para ver los modelos de IA de Anthropic debido al trabajo que había realizado para un contratista externo, según Bloomberg, while El medio también informó que el grupo ha estado usando el modelo desde que obtuvo acceso, aunque no para hackear, porque no quieren ser detectados.
“Cuando herramientas poderosas de IA se acceden o usan fuera de sus controles previstos, el riesgo no es solo un incidente de seguridad, sino la propagación de capacidades que podrían usarse para fraude, abuso cibernético u otras actividades maliciosas”, dijo Saceanu.
Implicaciones más amplias para la seguridad de la IA
En un discurso en una gran conferencia de ciberseguridad el miércoles, el director del Centro Nacional de Ciberseguridad del Reino Unido (NCSC) hizo un caso más positivo, argumentando que las herramientas de IA pueden hacer las cosas más seguras y seguras. Richard Horne instó a los asistentes de CyberUK a no temer nuevos ataques de IA, sino a asegurarse de que estén haciendo bien las bases de la ciberseguridad.
“Como hemos visto en los medios en los últimos días, la IA de frontera está acelerando la detección y explotación de vulnerabilidades existentes a gran escala, ilustrando qué rápido expondrá dónde aún hay que abordar las bases de la ciberseguridad”, dijo. Las advertencias de Horne reflejan mensajes similares de años anteriores, por ejemplo, la urgencia de que las personas actualicen el software de sus sistemas y modernicen la infraestructura informática legada.
En el mismo evento. El Ministro de Seguridad Dan Jarvis instó a las empresas de IA a colaborar con el gobierno en el “esfuerzo generacional” para asegurar que la IA se use para proteger redes críticas de atacantes. Todos los modelos de IA más poderosos y avanzados, conocidos como IA de frontera, se desarrollan fuera del Reino Unido, con las empresas de primer nivel basadas en EE.UU. o China. Eso significa que el Reino Unido depende de empresas como Anthropic para darle acceso a Mythos y no tiene control sobre cómo se construye, entrena o libera.
OpenAI también tiene un modelo de ciberseguridad que dice es muy capaz llamado GPT 5.4 Cyber, y los discursos en CyberUK también destacaron la amenaza persistente de ataques de estados nación y hacktivistas, especialmente de Rusia y China. El NCSC advierte que el ciberespacio ahora es “la frontera principal” de la defensa en el Reino Unido, con eventos recientes como los ataques de Irán que muestran que el ciberespacio juega un papel cada vez más importante en todos los conflictos modernos.
Reportaje adicional por Imran Rahman-Jones.
Anthropic ha confirmado que está investigando un informe de que usuarios no autorizados han obtenido acceso a su modelo Mythos, del cual ha advertido que representa riesgos para la ciberseguridad, según una fuente adicional. La empresa estadounidense emitió el comunicado después de que Bloomberg informara el miércoles que un pequeño grupo de personas había accedido al modelo, que no se ha liberado al público debido a su capacidad para facilitar ciberataques.
“Estamos investigando un informe que afirma que se obtuvo acceso no autorizado al Claude Mythos Preview a través de uno de nuestros entornos de proveedores externos”, dijo Anthropic. Bloomberg informó que un “puñado” de usuarios en un foro en línea privado obtuvieron acceso a Mythos el mismo día en que Anthropic dijo que estaba liberando el modelo a un número pequeño de empresas, incluyendo Apple y Goldman Sachs, con fines de prueba.
El medio informó que los usuarios anónimos llegaron a Mythos a través del acceso que uno de ellos tenía como empleado de un contratista externo para Anthropic y al emplear métodos utilizados por investigadores de ciberseguridad. El grupo no ha corrido prompts de ciberseguridad en el modelo y está más interesado en “jugar” con la tecnología que en causar problemas, según Bloomberg, que corroboró las afirmaciones con capturas de pantalla y una demostración en vivo del modelo.
No obstante. Las noticias sobre la posible violación alarmarán a las autoridades que han expresado preocupaciones sobre el potencial de Mythos para causar estragos y plantearán preguntas sobre cómo mantener tecnología potencialmente dañina fuera de manos equivocadas. Kanishka Narayan. Ministro de IA del Reino Unido. Ha dicho que las empresas británicas “deberían preocuparse” por la capacidad del modelo para detectar fallas en los sistemas informáticos — que los ciberdelincuentes podrían aprovechar posteriormente.
El modelo ha sido evaluado por la principal autoridad mundial en seguridad de la tecnología, el Instituto de Seguridad de la IA del Reino Unido (AISI), que advirtió la semana pasada que Mythos era un “paso adelante” en comparación con modelos anteriores en términos de la amenaza cibernética que representa. AISI dijo que Mythos podría llevar a cabo ataques que requieren múltiples acciones y descubrir debilidades en los sistemas informáticos sin intervención humana; indicó que estas tareas normalmente tomarían días a profesionales humanos. Mythos fue el primer modelo de IA en completar con éxito una simulación de 32 pasos de un ciberataque creado por AISI, resolviendo el desafío en tres de sus 10 intentos.
Comentarios
Aún no hay comentarios
Sé el primero en compartir tu opinión