Allarme social: algoritmi spingono i giovani verso contenuti su suicidio e autolesionismo

Le piattaforme di social media continuano a esporre gli adolescenti a contenuti pericolosi legati a suicidio, autolesionismo e depressione, secondo un nuovo rapporto pubblicato dalla Molly Rose Foundation nel Regno Unito.
Per condurre l’indagine, l’organizzazione ha creato account falsi fingendo di essere una ragazza di 15 anni che aveva già interagito con contenuti sensibili. I risultati mostrano che la maggior parte dei video suggeriti da TikTok e Instagram riguardava il suicidio o l’autolesionismo, spesso in modo esplicito.
Su TikTok, la pagina For You raccomandava regolarmente video che non solo menzionavano il suicidio, ma arrivavano a promuoverlo, includendo persino descrizioni di metodi specifici. Su Instagram, invece, il fenomeno era più evidente nei Reels, la sezione dedicata ai video brevi.
“Algoritmi dannosi continuano a bombardare gli adolescenti con livelli scioccanti di contenuti pericolosi, e sulle piattaforme più popolari per i giovani questo avviene su scala industriale”, ha dichiarato Andy Burrows, amministratore delegato della Molly Rose Foundation.
Il rapporto è stato pubblicato a ridosso dell’entrata in vigore, nel luglio 2025, delle nuove norme britanniche sulla sicurezza online, che obbligano le piattaforme digitali a rimuovere rapidamente i contenuti illegali su suicidio e autolesionismo e a proteggere attivamente i minori. Tuttavia, secondo la fondazione, poco è cambiato dal 2017, anno in cui la 14enne Molly Russell si tolse la vita dopo essere stata esposta a contenuti dannosi online. Un medico legale stabilì allora che tali contenuti avevano contribuito “più che minimamente” alla sua morte.
La fondazione chiede ora all’ente regolatore Ofcom di rafforzare le misure di protezione e al governo britannico di intervenire con norme più severe.
Dal canto suo, un portavoce di TikTok ha respinto le accuse, affermando che i risultati “non riflettono la reale esperienza degli utenti” e sottolineando che la piattaforma rimuove proattivamente il 99% dei contenuti che violano le regole. Meta, società madre di Instagram, non ha commentato. Lo scorso anno, la piattaforma aveva introdotto gli “account per adolescenti”, con funzioni di sicurezza aggiuntive e limitazioni all’accesso a contenuti sensibili.
Intanto cresce la preoccupazione per l’impatto degli algoritmi sui giovani e sull’aumento di esposizione a contenuti che possono influire negativamente sulla salute mentale.
Se hai bisogno di parlare con qualcuno, rivolgiti a Befrienders Worldwide, organizzazione internazionale con linee di ascolto attive in 32 Paesi. Puoi trovare il numero più vicino visitando befrienders.org
Today