Un tribunal de Nuevo México ordenó a Meta, la empresa matriz de Facebook, Instagram y WhatsApp, pagar 375 millones de dólares tras un jurado que determinó que la empresa engañó a los usuarios sobre la seguridad de sus plataformas para menores. El veredicto marca la primera vez que un estado ha logrado demandar con éxito a Meta por cuestiones de seguridad infantil, según BBC.

Veredicto histórico en caso de seguridad infantil

El fiscal general de Nuevo México. Raul Torrez. Calificó el veredicto como ‘histórico’ y dijo que representa un punto de inflexión en la responsabilidad de las empresas tecnológicas por la seguridad de los usuarios jóvenes. El jurado encontró que Meta violó la Ley de Prácticas Injustas del estado al engañar al público sobre los riesgos que sus plataformas representaban para menores. Este caso fue el primero de su tipo, ya que ningún otro estado había ganado una demanda similar contra la empresa.

El juicio. Que duró siete semanas. Presentó documentos internos de Meta y testimonios de ex empleados; Estos incluyeron relatos de cómo la empresa sabía sobre predadores infantiles que usaban sus plataformas y no actuó. Arturo Béjar. Un ex líder de ingeniería de Meta que se convirtió en denunciante en 2021, testificó que realizó experimentos en Instagram y descubrió que a usuarios menores se les mostraba contenido sexualizado. También reveló que su hija fue acostada por un extraño en la plataforma.

Los fiscales del estado mostraron investigaciones internas de Meta que, en un momento dado, encontraron que el 16% de todos los usuarios de Instagram reportó haber visto contenido inapropiado o actividades sexuales no deseadas en una sola semana. Esta data fue utilizada para respaldar las afirmaciones de que la empresa estaba consciente de los riesgos, pero no los abordó.

Defensa de Meta y planes de apelación

Una portavoz de Meta dijo que la empresa no está de acuerdo con el veredicto y planea apelar. Indicó: ‘Trabajamos arduamente para mantener a las personas seguras en nuestras plataformas y somos claros sobre los desafíos de identificar y eliminar actores malintencionados y contenido dañino. Seguimos confiados en nuestro historial de proteger a los adolescentes en línea.’

La multa de 375 millones de dólares se calculó basándose en la determinación del jurado de que hubo miles de violaciones a la Ley de Prácticas Injustas, cada una con una penalidad máxima de 5,000 dólares. Este enfoque permitió al tribunal imponer una multa civil importante basada en el número de infracciones presuntas.

Meta también enfrenta un juicio separado en Los Ángeles, donde una joven afirma que se volvió adicta a plataformas como Instagram y YouTube, propiedad de Google, desde la infancia debido a su diseño. Este caso forma parte de una ola de demandas similares en todo Estados Unidos, muchas de las cuales involucran afirmaciones sobre la naturaleza adictiva de las redes sociales y su impacto en menores.

Nuevo México demandó a Meta en 2023, acusando a la empresa de utilizar algoritmos de recomendación para dirigir a los usuarios jóvenes hacia contenido sexual explícito, que mostraba abuso sexual infantil o los expuso a la solicitud de material de este tipo y tráfico sexual. El estado argumentó que los ejecutivos de Meta sabían que sus productos dañaban a los niños, pero ignoraron las advertencias de sus propios empleados y mintieron al público sobre lo que sabían.

Implicaciones más amplias para empresas tecnológicas

El fiscal general Raul Torrez dijo: ‘Hoy el jurado se unió a las familias, educadores y expertos en seguridad infantil para decir que ya basta.’ El fallo podría establecer un precedente para otros estados que consideran demandas similares contra grandes empresas tecnológicas. También podría aumentar la presión sobre Meta para implementar mayores salvaguardas para usuarios jóvenes.

Meta ha tomado medidas en los últimos años para mejorar la seguridad infantil en sus plataformas, while En 2024, Instagram lanzó Cuentas para Adolescentes, dándole a los usuarios jóvenes más control sobre su experiencia. El mes pasado. La empresa introdujo una función que alertaría a los padres si sus hijos buscan contenido sobre autolesión.

A pesar de estos esfuerzos, los críticos argumentan que se necesita hacer más. El caso destaca la creciente vigilancia sobre cómo diseñan las empresas de redes sociales sus plataformas y el impacto que estos diseños tienen en los usuarios jóvenes. Con el aumento de demandas similares y la creciente preocupación pública sobre la seguridad en línea, el resultado de este caso podría influir en futuras regulaciones y políticas empresariales.

El caso también plantea preguntas sobre la efectividad de las prácticas actuales de moderación de contenido y el papel de los algoritmos en la formación de las experiencias de los usuarios. A medida que más estados consideren acciones legales, la presión sobre Meta y otras grandes empresas tecnológicas para abordar estos problemas probablemente aumentará.

La siguiente fase del caso involucrará el proceso de apelación de Meta, que podría tomar meses o incluso años para resolverse. Mientras tanto, el veredicto representa un desafío significativo tanto legal como de relaciones públicas para la empresa.