Esistono diversi modi per identificare quando il contenuto è stato manipolato. L’attenzione ai dettagli è fondamentale.
Il flusso costante di informazioni sui social media spesso rende difficile discernere cosa è vero e cosa non lo è, ancora di più con il recente boom dell’intelligenza artificiale (AI).
Nuovi strumenti di intelligenza artificiale generativa come DALL-E e Midjourney hanno permesso praticamente a chiunque di creare con facilità scenari immaginari ma plausibili.
Questa tendenza ha dato origine ai cosiddetti deepfake: video o immagini che ritraggono in modo convincente qualcuno in uno scenario falso.
L’impatto di questa tecnologia varia, da umoristiche e sciocche a campagne diffamatorie politiche e contenuti sessuali non consensuali.
Nei momenti in cui anche le immagini possono essere contraffatte così facilmente pur essendo così inquietantemente realistiche, è fondamentale sapere come individuare i deepfake per evitare disinformazione e propaganda. Ecco alcuni consigli.
Fai attenzione ai dettagli strani
È importante analizzare sempre i dettagli nelle immagini e fare attenzione alle discrepanze quando qualcosa non va.
Le immagini manipolate in genere mancano di rappresentazioni realistiche dell’illuminazione e le mani sono spesso mutilate digitalmente. Quindi, se sembra più un dipinto che un’immagine reale, probabilmente è falso.
Ad esempio, Donald Trump ha recentemente condiviso un’immagine di se stesso in cui lo si vede inginocchiato con un riflettore puntato direttamente su di lui.
Tuttavia, uno sguardo più attento a questa immagine mostra che il generatore di immagini AI ha incasinato le sue mani giunte in preghiera. A quello destro manca un dito ei pollici sono distorti.
Lo sfondo è un altro indizio: non sembra molto realistico che l’ex presidente sia in una stanza inginocchiato con un riflettore puntato su di lui senza che nessuno intorno lo guardi.
Caratteristiche innaturali o sfocate
Altri esempi di immagini deepfake che hanno recentemente attirato l’attenzione diffusa sono state immagini che ritraevano falsamente l’arresto di Trump – l’ex presidente è stato accusato ad aprile di pagamenti in denaro a due donne che hanno affermato di aver avuto rapporti sessuali con lui – e un’immagine memorabile (ma falsa) del Papa indossa un piumino.
Nelle immagini deepfake dell’arresto di Trump, i volti delle persone che ritraggono hanno spesso tonalità della pelle innaturali e lineamenti cerosi o sfocati, forti indicazioni che le immagini sono false.
Quando le caratteristiche delle persone non sono un chiaro indizio, uno sguardo più attento all’immagine stessa può rivelare dettagli più dubbi.
Ad esempio, nell’immagine generata dall’intelligenza artificiale del papa che indossa un piumino bianco, i suoi occhiali sono deformati e non sembrano adattarsi bene. Inoltre, una rapida occhiata alla sua mano destra rivela che la bottiglia d’acqua che ha in mano ha una strana forma che fa sembrare che si sia sciolta.
Qualcosa di strano in sottofondo?
Un altro modo per capire quando un’immagine è generata dall’IA possono essere i dettagli sullo sfondo dell’immagine.
Ad esempio, in un’immagine che mostra il presidente francese Emmanuel Macron che lavora come netturbino al culmine della Francia riforma delle pensioni strikes, le scritte indecifrabili sui sacchi della spazzatura sono la prova – al di là del surrealismo della situazione – che l’immagine è falsa.
Le persone che vivono in Francia potrebbero anche notare che il semaforo pedonale sullo sfondo non assomiglia a quello che troveremmo a Parigi o in qualsiasi altra città del paese.
Lancette e scritte rovinate
Anche l’intelligenza artificiale fatica ancora a scrivere correttamente le parole. In una falsa immagine dell’arresto di Macron, la parola “polizia” sui caschi e sulle divise degli agenti di polizia non è scritta correttamente e la mano destra di Macron ha sei dita.
Individuazione di video deepfake
Sebbene ci siano vari modi in cui è possibile individuare le immagini deepfake, i video deepfake tendono a condividere due caratteristiche principali: movimenti oculari innaturali e audio che molto spesso non è sincronizzato con i movimenti della bocca della persona.
In un video del 2019 in cui si vede Donald Trump denunciare la sua procedura di impeachment prima di affermare bruscamente che Jeffrey Epstein non si è tolto la vita, possiamo vedere chiaramente che i suoi movimenti della bocca non corrispondono a ciò che sentiamo.
I video deepfake sono stati utilizzati anche per diffondere propaganda relativa alla guerra in Ucraina.
In un caso, a video manipolato la pretesa di mostrare il presidente ucraino Volodymyr Zelenskyy che invita i cittadini ad arrendersi alla Russia è stata ampiamente diffusa sui social media e anche brevemente trasmessa su un sito di notizie ucraino violato. Il video si è rivelato essere un deepfake che presentava anche movimenti oculari innaturali.
Tuttavia, con il miglioramento della tecnologia AI, diventerà più difficile rilevare discrepanze tra contenuti reali e falsi online. Per questo motivo, il modo più importante per individuare i deepfake ed evitare la disinformazione è verificare i fatti e mettere in discussione l’affidabilità delle fonti che condividono le immagini o i video.
È importante ottenere informazioni da fonti ufficiali e attendibili come agenzie governative ufficiali e piattaforme di notizie credibili. Nella maggior parte dei casi, una rapida ricerca online, utilizzando fonti di notizie affidabili o organizzazioni di verifica dei fatti come Full Fact o PolitiFact, può aiutare a identificare se qualcosa è vero o no.
Image:Getty Images