POINT PLEASANT, W.Va. — El fiscal general de West Virginia, JB McCuskey, presentó una demanda contra Apple en el Tribunal de Circuito de Mason County, acusando a la empresa de que sus características de privacidad en iCloud han convertido su almacenamiento en la nube en un refugio para material de abuso sexual infantil. McCuskey, un republicano, afirma que Apple prioriza la privacidad del usuario sobre la seguridad infantil, citando un mensaje interno de 2020 en el que el ejecutivo de Apple, Eric Friedman, calificó a iCloud como ‘la mejor plataforma para distribuir pornografía infantil’.
La conversación, entre Friedman, entonces jefe antifraude de Apple, y Herve Sibert, jefe de seguridad, surgió durante el litigio Apple v. Epic Games de 2021. Friedman lamentó el enfoque de privacidad de Apple, señalando que la empresa había ‘elegido no saber’ la magnitud completa del material de abuso sexual infantil que fluía por sus sistemas. La demanda de 45 páginas de West Virginia utiliza esta admisión para argumentar que el cifrado de extremo a extremo de iCloud impide el acceso de las autoridades, incluso para Apple misma.
Mccuskey busca daños legales, sanciones punitivas y una orden judicial para que Apple implemente herramientas de detección de CSAM. ‘Estas imágenes son un registro permanente del trauma de un niño, y ese niño se revictimiza cada vez que el material se comparte o se ve’, dijo en un comunicado. La demanda acusa a Apple de perjudicar los esfuerzos del estado para proteger a los niños al evitar reportar casos al Centro Nacional de Niños Desaparecidos y Explorados.
Apple reportó solo 267 casos de CSAM al Centro Nacional de Niños Desaparecidos y Explorados (NCMEC) en 2023. Ese número supera con creces los 1,47 millones de Google y los 30 millones de Meta. Los fiscales culpan a Apple por su escaneo limitado, restringido a iCloud Mail, que carece de cifrado de extremo a extremo y permite el acceso mediante orden judicial. La mayoría de las fotos y archivos de iCloud no se escanearon hasta que los usuarios optaron por la Protección de Datos Avanzada, que bloquea los datos detrás de claves controladas por el usuario.
Apple se defendió con un comunicado destacando las medidas de seguridad existentes. La empresa prohíbe a los niños enviar o recibir imágenes desnudas mediante Mensajes. El jueves, presentó un botón ‘Informar a Apple’ para que los usuarios estadounidenses reporten contenido no deseado directamente a la empresa. Los portavoces insisten en que la herramienta predataba la demanda y busca combatir una amplia gama de daños en dispositivos y aplicaciones.
Este enfrentamiento refleja años de tensión sobre el cifrado. Las autoridades de aplicación lo denuncian como un refugio para criminales. Los grupos de privacidad lo elogian como esencial contra la vigilancia. Apple ha explorado soluciones antes. En 2021, propuso NeuralHash, un software para detectar CSAM conocido en dispositivos antes de la subida sin descifrar los archivos. La oposición de grupos como la Electronic Frontier Foundation mató el plan por temor a que se extendiera a la censura.
Indiferente, Apple lanzó de todos modos la Protección de Datos Avanzada opcional. Cifra la mayor parte de los datos de iCloud de extremo a extremo. Los críticos, incluido West Virginia, afirman que esto prioriza la privacidad sobre el escaneo, permitiendo que los depredadores operen libremente. El estado señala el abandono del cifrado por defecto para copias de seguridad de iCloud—descartado debido a la presión del FBI—como prueba de que Apple conoce los riesgos pero eligió la privacidad.
La presión crece en el sector tecnológico. Google y Meta escanean las subidas contra las bases de datos del NCMEC. Apple se negó, citando la privacidad. Ahora, frente a la corte, debe responder dentro de 30 días. La oficina de McCuskey presenta la demanda como una cuestión de salud pública, no solo de aplicación. Los fallos en la detección, argumentan, agotan recursos y revictimizan a las víctimas cuyas imágenes proliferan sin control.
El caso podría establecer precedentes. Ningún estado había demandado antes sobre CSAM en la nube. Los grupos de seguridad infantil lo celebran; una demanda de Luisiana de 2023 buscó 1.200 millones de dólares a Apple por razones similares. A medida que los teléfonos inteligentes y las redes sociales se llenan de contenido tóxico, los reguladores observan con más atención a las grandes empresas tecnológicas. Apple, con 2.200 millones de dispositivos activos, se encuentra en el centro de esta cuestión.
Comentarios
Aún no hay comentarios
Sé el primero en compartir tu opinión