La reguladora británica de medios ha iniciado una investigación contra Telegram por posibles incumplimientos en la prevención del contenido de abuso sexual infantil (CSAM), según Ofcom. La autoridad de comunicaciones anunció el martes que está investigando el popular servicio de mensajería tras reunir evidencia que sugiere que el CSAM está presente y se comparte en la plataforma.
Obligaciones legales y preocupaciones
Bajo la actual legislación, los servicios de mensajería entre usuarios que operan en el Reino Unido deben contar con sistemas para evitar que las personas se encuentren con CSAM y otros contenidos ilegales, así como mecanismos para combatirlos, o enfrentarán multas elevadas por incumplimientos. Telegram negó categóricamente las acusaciones de Ofcom y afirmó que desde 2018 ha virtualmente eliminado la difusión pública de CSAM en su plataforma mediante algoritmos de detección de primer nivel y colaboración con organizaciones no gubernamentales.
La empresa añadió: “Nos sorprende esta investigación y tememos que forme parte de un ataque más amplio contra plataformas en línea que defienden la libertad de expresión y el derecho a la privacidad.” Esta acción forma parte de una medida más amplia de Ofcom contra servicios que sospecha que podrían estar incumpliendo las exigencias de seguridad en línea del Reino Unido, incluyendo reglas endurecidas para las empresas tecnológicas para combatir el CSAM, que es ilegal poseer o compartir en el Reino Unido.
Apoyo de grupos de protección infantil
“El abuso y explotación sexual infantil causan un daño devastador a las víctimas, y garantizar que las plataformas y aplicaciones aborden este problema es una de nuestras prioridades más altas,” dijo Suzanne Cater, directora de aplicación de la ley en Ofcom. Agregó que aunque se ha avanzado en la lucha contra el CSAM en servicios más pequeños, incluyendo plataformas de alojamiento y compartición de archivos, el problema “se extiende también a plataformas grandes”.
La organización benéfica para niños NSPCC dio la bienvenida a la investigación de Ofcom contra Telegram. “Investigaciones recientes de la NSPCC revelaron que alrededor de 100 delitos relacionados con imágenes de abuso sexual infantil se registran diariamente por la policía,” dijo Rani Govender, directora asociada de políticas en la organización. “La magnitud de este abuso es alarmante y damos la bienvenida a que Ofcom aumente sus acciones para combatirlo, incluyendo esta investigación contra Telegram.”
Acciones más amplias y respuestas
La investigación también fue bien recibida por la Fundación Internet Watch (IWF), que trabaja para identificar y eliminar el CSAM en línea, incluido en Telegram. Emma Hardy, directora de comunicación de IWF, dijo que la organización comparte preocupaciones sobre “redes de actores maliciosos” en la plataforma y “que no se está haciendo suficiente para prevenir la distribución de imágenes de abuso sexual infantil ya detectadas.” Agregó que aunque la empresa ha tomado algunas medidas, “para que estas sean realmente efectivas, deben hacer más”.
Ofcom anunció que inició su investigación contra Telegram después de que el Centro Canadiense para la Protección de la Infancia se pusiera en contacto con ellos por la presunta presencia y compartición de CSAM en la aplicación de mensajería. También dijo que ha comenzado investigaciones contra los servicios Teen Chat y Chat Avenue por riesgos potenciales de acoso infantil detectados a través de su trabajo con agencias de protección infantil. “Los servicios de chat orientados a adolescentes son demasiado fácilmente utilizados por predadores para acosar a los niños,” dijo Cater. “Estas empresas deben hacer más para proteger a los niños, o enfrentarán consecuencias serias bajo la Ley de Seguridad en Línea.”
La empresa detrás de Teen Chat le dijo a la BBC que no está de acuerdo con la posición de Ofcom. Dijo que sistemas como la moderación humana activa, el informe de contenido ilegal y filtros de chat hacen “que las condiciones de la plataforma sean menos que ideales para que ocurra [abuso sexual infantil].” Sin embargo, la empresa añadió que, aunque trabaja con Ofcom y hace todo lo posible para prevenir actividades ilegales, “en algún momento hay un límite a lo que pequeños sitios web como el nuestro pueden hacer”.
“Estamos a la espera de una respuesta de [Ofcom] y trabajaremos con ellos, pero ya hemos llegado al límite de lo que razonablemente se puede esperar de una plataforma como la nuestra,” dijo. Chat Avenue le dijo a la BBC que “no está de acuerdo con que el acoso sea común en nuestra plataforma.” Señaló una serie de medidas implementadas para crear un entorno seguro en línea, incluyendo “herramientas de detección de CSAM operando tanto en áreas privadas como públicas de la plataforma” y lo que describe como “moderación activa por parte de moderadores humanos capacitados”.
Ofcom ha impuesto varias multas a proveedores acusados de no cumplir con sus obligaciones en cuanto a contenido ilegal o verificación de edad. Tiene el poder de multar a las empresas con 18 millones de libras o el 10% de sus ingresos globales, lo que sea mayor, en caso de encontrar incumplimientos. Sin embargo, Ofcom dijo el martes que un servicio de compartición de archivos con el que se puso en contacto por preocupaciones sobre sus sistemas para lidiar con contenido ilegal había realizado “mejoras sustanciales” para cumplir con sus obligaciones.
Comentarios
Aún no hay comentarios
Sé el primero en compartir tu opinión