I contenuti fuorvianti generati dall’intelligenza artificiale potrebbero far oscillare gli elettori, affermano gli esperti di intelligenza artificiale. Le elezioni presidenziali di domenica in Turchia sono il primo voto importante per affrontare questa sfida.
Gli utenti Internet turchi sono rimasti sorpresi nello scoprire che Kemal Kilicdaroglu, il principale sfidante del presidente Recep Tayyip Erdogan alle elezioni di domenica, parlava un inglese perfetto in un video pubblicato online due settimane fa.
“Anche la pupilla dei miei occhi parla inglese. Te lo prometto nonno, ti nomineremo presidente”, ha commentato un utente di Twitter, condividendo il video del candidato 74enne. Ma due giorni dopo, ha rivelato il sito web turco indipendente di verifica dei fatti Teyit il video era stato fabbricato.
Secondo Teyit, che significa conferma in turco, il video generato dall’intelligenza artificiale non intendeva ingannare nessuno ed è stato inizialmente pubblicato con un disclaimer.
“Sperimento costantemente con l’intelligenza artificiale per conoscere nuove funzionalità. Ho creato la voce di Kemal Kilicdaroglu su AI e l’ho usata per una versione inglese del suo discorso di candidatura”, ha detto @ytc06che è stato il primo utente di Twitter a condividere il video con i suoi 11 follower prima che diventasse virale.
Il recente boom dell’accesso agli strumenti di intelligenza artificiale sta alimentando questo tipo di situazioni, secondo lo specialista di deepfake Henry Ajder.
“Quando qualcosa progettato per essere satirico viene estrapolato dal contesto, può essere scambiato per reale, soprattutto se si parla a un pubblico che ha determinati pregiudizi”, ha detto a Euronews Next.
“Personaggi famosi e politici sono particolarmente a rischio perché parlano molto alla telecamera, stando fermi, guardando dritto nell’obiettivo. Questa è una forma di video più facile da manipolare rispetto a quando si muovono e il loro profilo cambia”, ha spiegato.
Inondare i social media di deepfake
Lo stesso giorno è stato rilasciato il video falsificato di lui che parlava inglese – per lo più guadagnandogli sostenitori – Kilicdaroglu ha avvertito i suoi follower sui social media di possibili interferenze elettorali.
“Giocare a Cambridge Analytica va oltre le vostre capacità, ragazzi”, ha detto ai funzionari del governo su Twitterriferendosi all’uso non autorizzato dei dati personali e alla campagna mirata sui social media per far oscillare le elezioni presidenziali statunitensi del 2016.
Le imminenti votazioni presidenziali e parlamentari turche potrebbero porre fine al governo ventennale di Erdogan e alterarepanorama politico del paese. Sono anche una delle prime grandi elezioni a occuparsi di un’IA così avanzata.
“Se riesci a inondare discorsi sofisticati e dal suono molto umano su grandi reti e account non autentici con una narrazione, ciò potrebbe ovviamente svolgere un ruolo nel conquistare una sfera”, ha affermato Ajder.
Questo è esattamente ciò che gli utenti di Internet hanno cercato di ottenere in Turchia. Negli ultimi mesi, Teyit ha affrontato un’ondata di contenuti manomessi e ha smascherato oltre 150 affermazioni controverse relative alle elezioni, con otto solo il 10 maggio. Molti di questi erano deepfake progettati per fuorviare i lettori accusando i candidati (principalmente dell’opposizione) di terrorismo e inciviltà.
“È facile riconoscere che quel tipo di contenuto è falso, ma non lo è per le persone che non pensano più in modo critico”, ha detto a Euronews Next l’esperto turco di intelligenza artificiale Cem Say.
La maggioranza dei turchi è polarizzata tra Erdogan e Kilicdaroglu, e attualmente i sondaggi ne prevedono uno gara estremamente ravvicinata tra i due candidati.
Il Partito per la giustizia e lo sviluppo (AKP) del presidente in carica ha ripetutamente preso a pugni i suoi concorrenti, più recentemente durante il suo più grande raduno a Istanbul, il 7 maggio, quando una modifica non rivelata del video della campagna di Kilicdaroglu è stata trasmessa su schermi giganti.
La versione deepfake era stata aggiunta in Murat Karayılan, un leader del Partito dei lavoratori del Kurdistan (PKK) – che è elencato da molti altri paesi e dall’UE come organizzazione terroristica – applaudendo la canzone della campagna dell’opposizione, mentre il testo “dai, andiamo tutti a votare” urlato dagli altoparlanti.
In un video condiviso sui social media, Erdogan ha chiesto a circa 1,7 milioni di sostenitori presenti alla sua manifestazione: “I miei connazionali nazionali e locali voterebbero per queste persone?” prima di aggiungere: “Guarda questo, è molto importante!”.
Un altro candidato presidenziale, Muharrem Ince, ha abbandonato la corsa giovedì dopo il rilascio di un presunto sex tape che ha definito un deepfake.
Il fondatore e leader dell’Homeland Party di centrosinistra, laico e nazionalista, che è stato il principale sfidante di Erdogan nelle elezioni del 2018, ha affermato di aver subito un “assassinio di carattere” durante la campagna di quest’anno.
“Quello che ho visto negli ultimi 45 giorni, non l’ho visto negli ultimi 45 anni”, ha detto Ince nel suo discorso di dimissioni.
“Video falsi, immagini false… hanno messo la mia faccia su un video tratto da un sito porno israeliano”, ha aggiunto, accusando i giornalisti e i pubblici ministeri del Paese di non averlo protetto dalla “furia della calunnia”.
Esperti come Say temono tattiche ancora più aggressive e dell’ultimo minuto. “I deepfake potrebbero essere usati il giorno delle elezioni con la motivazione per scoraggiare le persone dall’andare alle urne o per influenzare la loro decisione”, ha detto, aggiungendo che ciò non lascerebbe “tempo per la verifica”.
Cosa si può fare?
Con i progressi dell’intelligenza artificiale che non mostrano segni di rallentamento, gli esperti di debunking sono in corsa contro i generatori di contenuti AI. Proprio come in Turchia, i deepfake creati da fonti ufficiali hanno iniziato a farsi strada sulla scena politica negli Stati Uniti.
Dopo che il presidente Joe Biden ha annunciato che si sarebbe candidato alla rielezione, il Comitato nazionale repubblicano avversario ha pubblicato un video progettato dall’IA che descrive un futuro distopico sotto un secondo mandato di Biden. Gli esperti avvertono già che i deepfake saranno uno di questi delle principali sfide delle elezioni presidenziali statunitensi del 2024.
“Il lato del rilevamento delle cose è un po’ deprimente al momento”, ha detto Ajder. Secondo lui, gli strumenti che certificano la provenienza dei contenuti sono promettenti, ma rischiano di creare una gerarchia dei media: se i contenuti reali non sono certificati, “la gente può liquidarli come falsi quando fa comodo”, ha spiegato. La sua raccomandazione è di attenersi a fonti dei media ben note e in grado di verificare i fatti.
È molto complicato in Turchia, dove Il 90% dei media nazionali è sotto il controllo del governo, secondo il gruppo per la libertà di stampa Reporters sans frontières. Questo – combinato con un ottobre 2022 legge che mira a limitare la “disinformazione” – significa che pochissimi punti vendita riferiscono effettivamente di deepfake in Turchia.
Anadolu, l’agenzia di stampa governativa turca, è stata accusata trattenere i risultati delle elezioni del sindaco di Istanbul del 2019 vinto dall’opposizione, e questo mese, un rapporto della missione di osservazione elettorale dell’OSCE ha espresso preoccupazione per l’imparzialità dell’organo di regolamentazione dei media del paese, RTÜK.
Pochi giorni prima che la nazione si rechi alle urne, la serie post-elettorale del media indipendente turco 140journos è forse la più potente nell’immaginare cosa potrebbe accadere dopo, anche qui con l’aiuto dell’intelligenza artificiale. Pubblicato a marzo utilizzando il generatore di immagini AI Midjourney e il generatore di testi AI ChatGPT, offre due narrazioni per il futuro della Turchia.
La prima storia descrive un Erdogan sconfitto e appena ritirato. “All’inizio è stato un po’ difficile. Tuttavia, nel tempo, ho colto l’occasione per trascorrere più tempo con la mia famiglia, per essere più vicino alla natura e per dedicare più tempo a me stesso”, dice un bot che impersona il politico, mentre le foto di lui che prende il tè in vestaglia illustrano il post .
Nell’altra narrazione, Erdogan non ha mai rinunciato al potere e la Turchia è diventata un impero in stile Star Wars che mira a “costruire la pace universale”.
Alla domanda “Quali sono state le maggiori sfide per raggiungere questo successo?”, l’IA impersonata da Erdogan risponde: “Una delle nostre maggiori sfide è stata stare al passo con il nuovo ordine del mondo e dell’universo e seguire da vicino gli sviluppi tecnologici e adattarsi costantemente a loro” – un cenno alla sfida che tutti i politici devono ora affrontare con l’IA.
Image:Getty Images