TikTok e Instagram acusados de divulgarem conteúdos relacionados com suicídio junto dos adolescentes

As redes sociais continuam a empurrar os adolescentes para conteúdos sobre suicídio, automutilação e "depressão intensa", segundo um novo relatório.
A Fundação Molly Rose, sediada no Reino Unido, criou contas no TikTok e no Instagram fazendo-se passar por uma rapariga de 15 anos que já tinha usado este tipo de conteúdos. Quase todos os vídeos que apareceram nas duas plataformas estavam relacionados com o suicídio, a depressão ou a automutilação, segundo o grupo.
A página For You do TikTok, por exemplo, recomendava regularmente vídeos que "promoviam e glorificavam explicitamente o suicídio" e recomendavam métodos específicos de suicídio, segundo o relatório.
No Instagram, os utilizadores falsos tinham mais probabilidades de ver este tipo de conteúdo nos Reels, a funcionalidade de vídeos curtos da plataforma.
"Os algoritmos continuam a bombardear os adolescentes com níveis chocantes de conteúdos nocivos e, nas plataformas mais populares para os jovens, isto pode acontecer a uma escala industrial", afirmou Andy Burrows, diretor executivo da Fundação Molly Rose.
Os testes foram realizados nas semanas que antecederam a entrada em vigor, no final de julho, das regras de segurança infantil do UK Online Safety Act. Entre outras medidas, a lei exige que estas redes sociais "removam rapidamente conteúdos ilegais sobre suicídio e automutilação" e "protejam proativamente os utilizadores" de conteúdos ilegais sobre estes temas.
Mas a fundação disse que as últimas descobertas indicam que pouco mudou desde 2017, quando Molly Russell, de 14 anos, morreu por suicídio no Reino Unido. Um médico legista determinou que a exposição a conteúdos nocivos online contribuiu de uma "forma mais do que mínima" para a sua morte.
O grupo apelou ao regulador das comunicações do Reino Unido, Ofcom, para que tome medidas adicionais para proteger os jovens de conteúdos nocivos online e para que o governo reforce a Lei da Segurança online.
Um porta-voz do TikTok contestou as conclusões, dizendo à Euronews Next que "não refletem a experiência real das pessoas na nossa plataforma, o que o relatório admite". O porta-voz afirmou que o TikTok remove proativamente 99% dos conteúdos que violam as suas normas.
A Meta, a empresa-mãe do Instagram e do Facebook, ainda não respondeu ao pedido de comentário. No ano passado, o Instagram lançou as "Contas de Adolescentes" com funcionalidades de segurança incorporadas, tais como restrições ao acesso dos adolescentes a conteúdos sensíveis.
Se estiver a pensar em suicídio e precisar de falar contacte a Befrienders Worldwide, uma organização internacional com linhas de apoio em 32 países. Visite befrienders.org para encontrar o número de telefone da sua localização.
Yesterday