Pubblicato su
•Aggiornato
Le piattaforme di social media continuano a spingere gli adolescenti verso i contenuti di suicidio, autolesionismo e “intensa depressione”, ha trovato un nuovo rapporto.
La Molly Rose Foundation con sede nel Regno Unito ha creato gli account Tiktok e Instagram in posa come una ragazza di 15 anni che in precedenza si era impegnata con questo tipo di contenuto. Quasi tutti i video che sono venuti sulle due piattaforme erano legati al suicidio, alla depressione o all’autolesionismo, ha detto il gruppo.
La pagina per te di Tiktok, ad esempio, ha regolarmente raccomandato video che “hanno esplicitamente promosso e glorificato il suicidio” e hanno raccomandato metodi di suicidio specifici, afferma il rapporto.
Su Instagram, gli utenti falsi avevano più probabilità di vedere questo tipo di contenuti su bobine, la funzione video a forma di breve piattaforma.
“Gli algoritmi dannosi continuano a bombardare adolescenti con livelli scioccanti di contenuti dannosi e sulle piattaforme più popolari per i giovani, questo può accadere su scala industriale”, ha affermato Andy Burrows, amministratore delegato della Molly Rose Foundation.
I test sono stati eseguiti nelle settimane precedenti le regole di sicurezza dei bambini del Regno Unito sulla sicurezza online alla fine di luglio. Tra le altre misure, la legge richiede ai siti di social media di “rimuovere rapidamente il suicidio illegale e i contenuti autolesionisti” e “gli utenti di protezione proattiva” da contenuti illegali su questi argomenti.
Ma la fondazione ha affermato che gli ultimi risultati indicano che poco è cambiato dal 2017, quando La quattordicenne Molly Russell è morto per suicidio nel Regno Unito. Un coroner ha stabilito che l’esposizione a contenuti dannosi online ha contribuito in modo più che minimo “alla sua morte.
Il gruppo ha invitato il regolatore delle comunicazioni del Regno Unito Ofcom a prendere ulteriori misure per proteggere i giovani da contenuti dannosi online e per il governo per rafforzare la legge sulla sicurezza online.
Un portavoce di Tiktok ha contestato i risultati, dicendo a Euronews in seguito che “non riflettono la vera esperienza delle persone sulla nostra piattaforma, che il rapporto ammette”. Il portavoce ha affermato che Tiktok rimuove in modo proattivo il 99 % dei contenuti che violano i suoi standard.
Anche un portavoce di Meta, la società madre di Instagram e Facebook, non era d’accordo con le conclusioni del rapporto, affermando che la metodologia era “limitata”.
Hanno aggiunto che “decine di migliaia” di adolescenti sono ora nei “account adolescenti” di Instagram, che la società ha lanciato l’anno scorso. Questi account hanno caratteristiche di sicurezza integrate come le restrizioni sull’accesso agli adolescenti a contenuti sensibili.
“Abbiamo sviluppato account per adolescenti per aiutare a proteggere gli adolescenti online e continuare a lavorare instancabilmente per fare proprio questo”, ha detto il portavoce.
Se stai pensando al suicidio e hai bisogno di parlare, ti preghiamo di raggiungere gli amici in tutto il mondo, un’organizzazione internazionale con alteri in 32 paesi. Visita Befriends.org per trovare il numero di telefono per la tua posizione.
Aggiornato il 21 agosto: Questo articolo è stato aggiornato per includere un commento di un portavoce di Meta.
Image:Getty Images