Una nuova ricerca mostra che i potenti algoritmi di YouTube possono inondare i giovani utenti di contenuti inquietanti, comprese rappresentazioni di sparatorie nelle scuole.
Potrebbe esserci un legame tra la violenza armata e i consigli sui video di Youtube? Questo è ciò che volevano scoprire i ricercatori del Technology Transparency Project, una ONG con sede negli Stati Uniti.
Hanno creato account YouTube separati fingendosi tipici ragazzi di 9 e 14 anni che vivono negli Stati Uniti e che adorano riprodurre video.
Gli analisti hanno guardato solo contenuti sui videogiochi, ma alcuni account hanno cliccato sui video consigliati dall’algoritmo di YouTube, mentre gli altri profili hanno ignorato questi suggerimenti.
Lo studio ha trovato gli account che hanno fatto clic sui video consigliati dalla piattaforma sono stati rapidamente inondati di contenuti violenti sulle sparatorie nelle scuole e su come maneggiare le armi da fuoco: circa 12 video al giorno nel corso di un mese.
Gli account che hanno ignorato i suggerimenti hanno comunque ricevuto alcuni video violenti, ma 10 volte meno degli altri.
Ad esempio, un video inviato a un account minorenne mostrava una ragazza che impugnava e sparava con una pistola.
Un altro video mostrava una persona che sparava con una pistola su una testa fittizia piena di sangue e organi realistici.
La cosa preoccupante è che questi video stanno raggiungendo un pubblico più ampio. Il progetto Technology Transparency ha twittato un commento sotto una clip di una scena di un film che ritrae una sparatoria in una scuola che è stata vista quasi un milione di volte.
Un utente ha commentato che questa scena è “ciò che lo motiva ogni giorno”.
Per Katie Paul, direttrice del progetto Technology Transparency, questi video non solo violano le norme di YouTube, ma potrebbero anche indirizzare i bambini vulnerabili su una strada pericolosa.
“È solo un altro esempio dei fallimenti nel controllo di qualità su una piattaforma che ha ripetutamente detto al Congresso degli Stati Uniti, al pubblico e ai genitori che si tratta di una piattaforma sicura e che i loro algoritmi non raccomandano contenuti sempre più estremi. Il nostro esperimento ha dimostrato che in realtà, loro consiglio di creare contenuti sempre più estremi”, ha detto a Euronews.
“È YouTube che sta mandando le persone in quel negozio di armi”
Non è la prima volta che YouTube e altre piattaforme di social media vengono prese di mira per aver promosso contenuti pericolosi.
Gli autori di alcune sparatorie di massa avevano utilizzato YouTube per trovare contenuti violenti e talvolta persino trasmettere in live streaming i loro attacchi.
Nei post sulla piattaforma, il tiratore dietro l’attacco alla scuola che ha ucciso 17 persone A Parkland, Florida nel 2018 ha scritto commenti violenti come “Diventerò uno sparatutto scolastico professionista”.
L’uomo armato che ha ucciso otto persone all’inizio di questo mese in un centro commerciale di Dallas aveva anche un account YouTube che includeva video sull’assemblaggio di fucili e una clip di una scena di sparatoria a scuola in uno spettacolo televisivo.
Ma Paul insiste che il problema non sono i videogiochi, ma le piattaforme dei social media e la mancanza di moderazione dei contenuti.
“Per molti anni, i videogiochi sono stati l’uomo nero per i politici quando c’è una sparatoria a scuola. Ma puoi giocare a uno sparatutto in prima persona come Call of Duty e non finire mai in un negozio di armi. È YouTube che sta mandando le persone a quel negozio di armi”, ha spiegato.
In alcuni casi, YouTube aveva già rimosso alcuni dei video identificati dallo studio, ma in altri casi il contenuto rimane ancora disponibile.
Abbiamo contattato YouTube per un commento ma non ci hanno risposto prima della pubblicazione di questo articolo.
In un dichiarazione inviata a The Guardianun portavoce di YouTube ha dichiarato: “Nel rivedere la metodologia di questo rapporto, è difficile per noi trarre conclusioni valide.
“Ad esempio, lo studio non fornisce il contesto di quanti video complessivi sono stati consigliati agli account di prova e inoltre non fornisce informazioni su come sono stati impostati gli account di prova, incluso se sono stati applicati gli strumenti delle esperienze supervisionate di YouTube”.
Paul ha risposto alle critiche. “È chiaramente affermato nel nostro rapporto che l’account di nove anni che abbiamo creato utilizzando un account genitore”, ha affermato.
“Indipendentemente dallo strumento per i genitori di YouTube, la società non fornisce alcun modo per disattivare l’algoritmo se i genitori non vogliono che i contenuti esterni vengano consigliati ai propri figli”.
Per ulteriori informazioni su questa storia, guarda il nostro rapporto da The Cube nel lettore multimediale in alto.
Image:Getty Images