Rispetto alle elezioni del 2019 sono in vigore più regole sulla piattaforma UE.
Questo giugno, circa 365 milioni di persone avranno diritto di voto alle elezioni europee, compresi molti giovani elettori per i quali i social media rappresentano una risorsa vitale per la campagna elettorale. Quattro paesi – Belgio, Germania, Malta e Austria – consentiranno il voto ai sedicenni, mentre in Grecia l’età minima per votare è 17 anni.
Cinque anni fa, quando si tenne l’ultimo voto dell’UE, il panorama normativo per le piattaforme online era molto diverso: c’erano meno regole sulla lotta alla disinformazione e la legge sull’AI non esisteva ancora. Diamo uno sguardo a come è cambiata la regolamentazione delle piattaforme nell’UE nel 2024, rispetto alle ultime elezioni del 2019, e al suo impatto sulle società di social media.
1. TikTok
Le piattaforme hanno avuto un ruolo importante nella campagna elettorale del 2019, ma TikTok è un vero punto di svolta. Mentre Facebook e Twitter (ora X) erano già grandi cinque anni fa, la piattaforma di condivisione video di proprietà cinese TikTok ha rapidamente guadagnato popolarità e ora vanta oltre 150 milioni di utenti mensili utenti Attraverso l’Europa. Meta supera ancora questo dato con circa 408 milioni di utenti mensili in Europa.
Un rapporto del Servizio Ricerca del Parlamento Europeo disse che l’affluenza alle urne nel 2019 ha raggiunto il 50,6 % soprattutto grazie alla partecipazione giovanile, innescata da una campagna parlamentare e dall’uso di piattaforme come Snapchat. TikTok, con il suo elevato numero di giovani utenti, questa volta potrebbe svolgere un ruolo altrettanto centrale, nonostante il coinvolgimento della piattaforma nelle turbolenze normative degli ultimi mesi.
La Commissione europea e il Parlamento lo hanno fatto chiamato sul personale per vietare l’app sui telefoni di lavoro per timori sulla sicurezza informatica. È inoltre “fortemente raccomandato” che i legislatori e i loro assistenti rimuovano TikTok dai propri dispositivi personali. Alcuni gruppi politici, come il gruppo socialdemocratico S&D e la Sinistra (GUE/NGL) utilizzano l’app per le loro campagne. Ma i maggiori timori per la sicurezza e la protezione dei dati negli ultimi giorni nei confronti della popolare azienda hanno messo la situazione sotto una luce diversa. La Commissione ha avviato due indagini di conformità relative alla protezione dei bambini online ai sensi del regolamento sulle piattaforme dell’UE a febbraio e aprile.
2. Legge sull’AI
L’Europa è stato il primo continente a regolamentare: il suo AI Act tenta di imporre regole rigide sui sistemi di machine learning ad alto rischio e aggiunge requisiti di trasparenza per gli strumenti di Generative AI (GenAI) come ChatGPT. È probabile che la legge sull’intelligenza artificiale entri in vigore a giugno, ma troppo tardi per avere un impatto sulle elezioni europee.
Tuttavia, la consapevolezza sui rischi degli strumenti è cresciuta. Gli elettori nell’UE sono sempre più preoccupati per l’impatto dell’intelligenza artificiale sui processi democratici, come la capacità di aumentare la diffusione di informazioni false e deep fake, rendendo difficile distinguere il reale dall’illusorio. sondaggi spettacolo.
Nel tentativo di affrontare questi rischi, piattaforme come Microsoft, Google e Meta si sono già impegnate a prevenire le interferenze elettorali dell’intelligenza artificiale in un accordo elettorale sull’intelligenza artificiale presentato al Consiglio di sicurezza di Monaco lo scorso febbraio. “Mentre la società abbraccia i vantaggi dell’intelligenza artificiale, abbiamo la responsabilità di garantire che questi strumenti non diventino un’arma nelle elezioni”, Brad Smith, vicepresidente e presidente di Microsoft disse al momento della firma.
Secondo le linee guida della Commissione sul GenAI, le grandi piattaforme online dovranno ad esempio utilizzare filigrane per garantire agli utenti che le informazioni relative ai processi elettorali siano ufficiali. Meta disse include già filigrane visibili e invisibili per le immagini create con la sua piattaforma GenAI.
3. DSA
Ai sensi del Digital Services Act (DSA), proposto dalla Commissione europea nel 2020, le piattaforme online con oltre 45 milioni di utenti medi mensili – tra cui Facebook e TikTok – sono obbligate ad adottare misure contro la disinformazione e la manipolazione elettorale. Le regole hanno iniziato ad applicarsi alle grandi aziende Big Tech a partire dall’agosto dello scorso anno.
Le aziende devono inoltre disporre di strumenti di moderazione dei contenuti, che includano la possibilità di contestare le decisioni quando i contenuti degli utenti vengono rimossi o limitati, nonché aumentare la trasparenza per gli utenti riguardo a termini e condizioni e al modo in cui gli algoritmi consigliano i contenuti.
La vicepresidente della Commissione europea Margarethe Vestager ha affermato che molti dibattiti elettorali si svolgeranno online e che i DSA forniscono strumenti per collaborare con le piattaforme online. “Possiamo affrontare i rischi emergenti online per i processi elettorali, come i deep fake. In questo modo possiamo consentire alle persone, in modo sicuro, di impegnarsi, discutere e prendere una decisione senza interferenze illegali”, ha affermato disse.
Per consentire alle aziende di testare le regole, la Commissione ha recentemente (24 aprile) organizzato uno stress test sulle linee guida elettorali dei DSA.
Le organizzazioni no-profit Mozilla e CheckFirst hanno affermato in una ricerca pubblicata questo mese (16 aprile), che le piattaforme online non forniscono informazioni sufficienti sull’influenza a pagamento e sugli annunci commerciali in vista delle elezioni europee di giugno. Anche gruppi della società civile domanda la mancanza di moderatori di contenuti per alcune lingue dell’UE come maltese, olandese ed estone; e quindi, la capacità delle piattaforme di fermare davvero la disinformazione pubblicata in quei paesi. Inoltre, non ci sono informazioni nei DSA su come vengono moderate le lingue non ufficiali dell’UE e su come vengono moderati i contenuti, ad esempio, in russo o arabo nell’UE.
4. Pubblicità politica
Sarà vietata anche la pubblicità politica basata sulla profilazione e sull’utilizzo dei dati dei minori. Inoltre, qualsiasi annuncio politico dovrà essere chiaramente etichettato come tale e includere informazioni su chi lo ha pagato e quanto è costato.
“Anche se si spera che le misure di trasparenza della nuova legge prevengano la manipolazione degli elettori e proteggano i dati personali delle persone dagli abusi negli anni a venire, non avranno un grande impatto sulle elezioni europee del 2024, rendendole un’occasione mancata, anche se con potenziale per il futuro. ”, una stampa dichiarazione disse.
Da parte loro, le società di social media TikTok e Meta hanno annunciato questo mese le loro misure per combattere la disinformazione. Ad esempio, Meta ha affermato che garantirà che gli inserzionisti che pubblicano annunci relativi alle elezioni dovranno rivelare se utilizzano l’intelligenza artificiale o immagini false.
Image:Getty Images