Acusan a TikTok e Instagram de difundir contenidos relacionados con el suicidio entre adolescentes

Las plataformas de redes sociales proponen a los adolescentes contenidos sobre suicidio, autolesiones y depresión intensa, según un nuevo informe. La Molly Rose Foundation, con sede en el Reino Unido, creó cuentas de TikTok e Instagram haciéndose pasar por una chica de 15 años que ya había participado anteriormente en este tipo de contenidos.
Casi todos los vídeos que aparecían en las dos plataformas estaban relacionados con el suicidio, la depresión o las autolesiones, según el grupo. La página Para ti de TikTok, por ejemplo, recomendaba regularmente vídeos que "promovían y glorificaban explícitamente el suicidio" y recomendaban métodos específicos de suicidio, según el informe.
Algoritmos que proponen contenido nocivos
En Instagram, los usuarios falsos tenían más probabilidades de ver este tipo de contenido en Reels, la función de vídeo de formato corto de la plataforma. "Los algoritmos nocivos siguen bombardeando a los adolescentes con niveles escandalosos de contenido nocivo, y en las plataformas más populares para los jóvenes esto puede ocurrir a escala industrial", afirmó Andy Burrows, director ejecutivo de la Molly Rose Foundation.
Las pruebas se realizaron en las semanas previas a la entrada en vigor, a finales de julio, de las normas de seguridad infantil de la Ley de Seguridad Online del Reino Unido. Entre otras medidas, la ley obliga a los sitios de redes sociales a "eliminar rápidamente los contenidos ilegales sobre suicidio y autolesiones" y a "proteger proactivamente a los usuarios" de contenidos ilegales sobre estos temas.
Pero la fundación dijo que los últimos hallazgos indican que poco ha cambiado desde 2017, cuando Molly Russell, de 14 años, se suicidó en el Reino Unido. Un forense dictaminó que la exposición a contenidos nocivos en línea contribuyó a su muerte.
Piden medidas adicionales para proteger a los jóvenes
El grupo ha pedido al regulador de comunicaciones del Reino Unido, Ofcom, que tome medidas adicionales para proteger a los jóvenes de los contenidos nocivos en línea, y al Gobierno que refuerce la Ley de Seguridad en Línea.
Un portavoz de TikTok rebatió las conclusiones y dijo a 'Euronews Next' que "no reflejan la experiencia real de la gente en nuestra plataforma, como admite el informe". El portavoz dijo que TikTok elimina proactivamente el 99% de los contenidos que violan sus normas.
Meta, la empresa matriz de Instagram y Facebook, no respondió inmediatamente a una solicitud de comentarios. El año pasado, Instagram puso en marcha "cuentas para adolescentes" con funciones de seguridad integradas, como restricciones al acceso de los adolescentes a contenidos delicados.
Si estás pensando en suicidarte y necesitas hablar, ponte en contacto con Befrienders Worldwide, una organización internacional con líneas de ayuda en 32 países. Visita befrienders.org para encontrar el número de teléfono de tu localidad.
Today