Le opinioni espresse in questo articolo sono quelle dell’autore e non rappresentano in alcun modo la posizione editoriale di Euronews.
Senza affrontare i difetti esistenti nel nostro attuale ecosistema, stiamo creando un terreno fertile dove la disinformazione e altri fenomeni dannosi continueranno a prosperare, scrive Kalim Ahmed.
Negli ultimi anni, l’intelligenza artificiale ha dominato le discussioni in vari settori.
La sua rapida integrazione e crescita supera la capacità del grande pubblico di tenere il passo con gli sviluppi.
Ciò ha costretto giornalisti, ricercatori e organizzazioni della società civile a evidenziare continuamente gli svantaggi di queste tecnologie emergenti, e hanno ragione nel farlo.
La discussione è stata innescata dall’ultima versione di Sora, un modello di intelligenza artificiale da testo a video, con molti che dibattono se strumenti come questi abbiano applicazioni benefiche o un impatto intrinsecamente negativo sul mondo.
Alcuni hanno optato per un approccio più misurato e hanno cercato di indagare sul set di dati utilizzato nei modelli di addestramento come Sora. Hanno deciso di eseguire le istruzioni dimostrate da OpenAI tramite Midjourney, un contemporaneo di Sora, e hanno scoperto sorprendenti somiglianze tra i risultati di entrambi i modelli.
Un editorialista tecnologico ha scoperto che una clip iperrealistica generata da Sora, che ha guadagnato una notevole popolarità sui social media, è stata creata utilizzando filmati di Shutterstock, una società partner di OpenAI. Ciò evidenzia la disponibilità limitata di set di dati di alta qualità per l’addestramento di tali modelli.
Una delle preoccupazioni significative che emergono ripetutamente nel discorso pubblico riguarda gli impatti dannosi delle campagne di disinformazione assistite dall’intelligenza artificiale, in particolare data la diffusa disponibilità di strumenti per la creazione di contenuti ingannevoli come immagini, testo, deep fake e clonazione vocale.
La preoccupazione generale è che questi strumenti consentano la produzione di contenuti fuorvianti su larga scala, potenzialmente distorcendo la percezione del pubblico e persino influenzando i comportamenti.
Tuttavia, evidenziare eccessivamente il potenziale della disinformazione assistita dall’intelligenza artificiale distoglie l’attenzione da due realtà importanti.
In primo luogo, i metodi tradizionali di disinformazione continuano a essere efficaci e gli autori delle minacce potrebbero sfruttare gli odierni modelli di intelligenza artificiale per propagare la disinformazione non solo a causa della loro sofisticatezza, ma piuttosto perché le nostre attuali infrastrutture sono difettose, consentendo alla disinformazione di prosperare indipendentemente dal coinvolgimento dell’intelligenza artificiale.
In secondo luogo, l’applicazione dell’intelligenza artificiale generativa potrebbe non essere necessariamente sufficientemente utile per la disinformazione, ma piuttosto estendersi ad altre attività dannose che vengono trascurate a causa della nostra particolare attenzione alla disinformazione.
Il difetto nel nostro ecosistema informativo
L’eccessiva attenzione prestata ai pericoli della disinformazione legata all’intelligenza artificiale ha in qualche modo raggiunto livelli di fantascienza.
Ciò è in gran parte dovuto al modo in cui il discorso pubblico, in particolare nei mezzi di informazione popolari, tende a sensazionalizzare l’argomento piuttosto che affrontarlo da una prospettiva fondata e realistica.
Un caso importante che vale la pena esaminare è l’incidente dello scorso anno relativo a un’esplosione vicino al Pentagono, supportato da un’immagine generata dall’intelligenza artificiale che presumibilmente raffigura l’evento.
Le affermazioni iniziali provenivano da fonti inaffidabili come RT e furono rapidamente amplificate dai canali televisivi indiani.
Si potrebbe sostenere che questa sia una dimostrazione efficace dei danni della disinformazione assistita dall’intelligenza artificiale, tuttavia, a un esame più attento, questo serve come un esempio calzante che evidenzia un difetto all’interno della nostra attuale infrastruttura informativa.
L’immagine generata dall’intelligenza artificiale utilizzata per corroborare l’affermazione era di bassa qualità; un’immagine contraffatta più convincente potrebbe essere prodotta utilizzando strumenti come Adobe Photoshop, causando potenzialmente danni più significativi.
L’intelligenza artificiale ha ridotto il tempo necessario agli autori malintenzionati per generare informazioni false? Indubbiamente. Tuttavia, l’immagine contraffatta si sarebbe comunque diffusa rapidamente in quanto diffusa dagli utenti premium su X (ex Twitter).
Per il pubblico e per molti dei media tradizionali, cogliere la completa trasformazione della piattaforma è una sfida; non c’è alcun significato di un segno di spunta verificato. Ora sono semplicemente utenti premium e non premium. Affidarsi al segno di spunta blu per valutare rapidamente l’autenticità di una richiesta è obsoleto.
Inoltre, quando i notiziari televisivi tradizionali hanno diffuso l’affermazione, hanno ignorato i principi fondamentali dell’alfabetizzazione mediatica.
Poiché l’affermazione è stata propagata da RT, portavoce del Cremlino impegnato nel conflitto con l’Ucraina (una nazione sostenuta dagli Stati Uniti e dai suoi alleati), questa consapevolezza contestuale necessitava di ulteriori verifiche.
Tuttavia, le immagini sono state prontamente mostrate sugli schermi televisivi di tutta l’India senza subire alcuna forma di verifica incrociata.
Le bugie sulla “abitudine alla cocaina” di Zelenskyj non avevano bisogno dell’aiuto dell’intelligenza artificiale
Ci sono stati numerosi casi di campagne di disinformazione orchestrate da attori filo-Cremlino che non si affidano all’intelligenza artificiale.
Il Microsoft Threat Analysis Center (MTAC) ha scoperto una di queste campagne in cui i video cameo di celebrità venivano manipolati per rappresentare falsamente il presidente ucraino Volodymyr Zelenskyy come un tossicodipendente.
Le celebrità venivano pagate per consegnare messaggi a un individuo chiamato “Vladimir”, esortandolo a cercare assistenza per l’abuso di sostanze.
Successivamente, questi video sono stati modificati per includere link, emoji e loghi, creando un’illusione di autenticità, come se fossero stati originariamente pubblicati sui social media.
Questi video sono stati poi coperti dalle agenzie di stampa affiliate allo stato russo, tra cui RIA Novosti, Sputnik e Russia-24.
Ripetutamente, le campagne di disinformazione orchestrate da attori filo-russi non identificati hanno cercato di imitare i media mainstream per diffondere narrazioni anti-ucraine.
Per raggiungere questo obiettivo utilizzano screenshot di articoli di notizie inventati e riassunti di video di notizie. Nessuno di questi metodi necessita dell’intelligenza artificiale; piuttosto, si affidano a tecniche tradizionali come la manipolazione abile utilizzando software come Adobe Photoshop e Adobe After Effects.
Le carenze sono già presenti
Il tumulto che circonda la disinformazione guidata dall’intelligenza artificiale serve anche a proteggere le aziende Big Tech dall’essere ritenute responsabili.
Per dirla chiaramente, un’immagine, un testo, un audio o un video generati dall’intelligenza artificiale servono a poco senza un meccanismo per diffonderli a un vasto pubblico.
L’anno scorso, un rapporto ha rivelato una rete di annunci di truffe crittografiche che operavano su piattaforme Meta sfruttando le immagini di celebrità.
Queste pubblicità non utilizzavano un’intelligenza artificiale sofisticata; piuttosto, hanno utilizzato immagini di celebrità manipolate e hanno sfruttato un difetto nelle politiche pubblicitarie di Meta.
Queste politiche consentivano la visualizzazione degli URL di organi di stampa affidabili, ma dopo aver fatto clic, gli utenti venivano reindirizzati a siti Web di truffe crittografiche. Questa tattica ingannevole è stata definita “esca e scambio”.
Non sappiamo ancora come gestire la disinformazione
Con un’importante mossa politica dello scorso anno, YouTube ha annunciato che non avrebbe più moderato le affermazioni fuorvianti come quelle secondo cui le elezioni presidenziali del 2020 sarebbero state rubate a Trump, evidenziando la continua sfida su come affrontare la disinformazione su larga scala, in particolare sui contenuti basati su video. piattaforme.
Anche Meta, che in genere ha pubblicizzato la sua iniziativa di verifica dei fatti da parte di terzi, ha recentemente introdotto nuovi controlli. Gli utenti ora hanno la possibilità di determinare se desiderano che i post verificati siano visualizzati in primo piano nel loro feed (accompagnati da un’etichetta verificata) o che vengano spostati più in basso in base alle loro preferenze.
Tuttavia, questa politica non è priva di difetti. Ad esempio, se una figura influente incoraggia tutti i suoi follower a modificare le proprie impostazioni per dare priorità ai post verificati, ciò potrebbe potenzialmente rendere inutile l’intero scopo del fact-checking.
Dopotutto, non è la prima volta che personalità pubbliche tentano di ingannare gli algoritmi utilizzando il loro seguito.
Queste importanti mosse politiche stanno avvenendo negli Stati Uniti, dove le aziende Big Tech sono molto più rigorose con le loro politiche di interferenza e manipolazione elettorale.
Va notato che, universalmente, Meta non estende le sue politiche di verifica dei fatti alle pubblicità politiche o ai post pubblicati dai politici, che è una questione politica importante che è stata criticata per anni.
Gli esperti nel campo della disinformazione concordano generalmente sul fatto che queste aziende tendono a non essere così meticolose con i paesi del terzo mondo, e alcuni usano il termine “trattamento del figliastro” per descrivere questo fenomeno.
Sorge quindi la domanda: se le loro politiche dovessero presentare delle falle o misure insufficienti, quale impatto avrebbe ciò su questi paesi?
Non è solo il contenuto, è la narrazione che genera
Un approccio lineare alla disinformazione, ossia dare per scontato che il fact-checking risolva semplicemente il problema, è una misura intellettualmente disonesta.
Anche con potenziali difetti, queste iniziative di verifica dei fatti supportate da Meta e Google hanno guadagnato slancio globale e dovrebbero continuare a ricevere supporto.
Tuttavia, ciò non significa che dovremmo accontentarci di ciò che abbiamo ottenuto e smettere di identificare altre variabili sociali che alimentano la disinformazione.
Inoltre, per gli individui vulnerabili alla disinformazione e alla disinformazione, il fattore determinante non è necessariamente la qualità dei contenuti, come immagini e video sofisticati generati dall’intelligenza artificiale, ma piuttosto la narrativa generale che questi contenuti sostengono.
Ad esempio, recentemente è diventato virale un video deepfake che mostra una presunta trasmissione di France 24 in cui un presentatore annuncia che il presidente Emmanuel Macron ha annullato una visita programmata in Ucraina per timore di un tentativo di omicidio.
La trasmissione non è mai stata trasmessa da France24, ma ha già fatto il giro dell’informazione russa in modo significativo perché l’ex presidente russo e vicepresidente del Consiglio di sicurezza russo Dmitry Medvedev ha subito espresso su X la sua opinione sulla presunta notizia.
La cosiddetta informazione sul tentativo di omicidio di Macron avrebbe potuto essere facilmente verificata leggendo i resoconti di altri organi di informazione rispettabili, ma la sua autenticità non aveva importanza per coloro che erano già ingenui.
Per i produttori di disinformazione, si tratta di una sfida di classificazione binaria, proprio come il modo in cui i truffatori, mascherati da principi nigeriani, distinguono tra utenti sensibili e non sensibili, consentendo loro di prendere di mira un numero sufficiente di vittime a scopo di lucro.
Inoltre, esaminando l’impatto della disinformazione resa possibile dall’intelligenza artificiale, diventa evidente che oltre alla diffusione di informazioni false, il danno predominante è stato osservato nella proliferazione di immagini intime non consensuali (NCII) e di truffe.
È qui che gli attori in malafede hanno identificato finora l’applicazione di maggiore impatto dell’intelligenza artificiale generativa.
Gli sforzi da parte di attori malintenzionati sono già in corso
Inoltre, se si considera l’influenza straniera nelle elezioni locali, l’hacking della campagna di Clinton prima delle elezioni americane del 2016 si è rivelato notevolmente vantaggioso per gli attori in malafede.
Hanno sfruttato un ambiente informativo già vulnerabile in cui la fiducia nei media tradizionali sembrava diminuire.
I gruppi di hacker russi hanno avuto accesso alle e-mail della campagna di Clinton, condividendole successivamente con WikiLeaks, che ha poi diffuso le e-mail rubate in vista delle elezioni di novembre. Ciò ha innescato una serie di cicli di notizie dannose per Clinton.
Gli autori delle minacce sono riusciti a raggiungere i propri obiettivi semplicemente sfruttando le nostre vulnerabilità esistenti.
Sorge ora la domanda: gli autori malintenzionati possono sfruttare i modelli di intelligenza artificiale per attività informatiche simili all’hacking della campagna Clinton del 2016?
La ricerca condotta in collaborazione da OpenAI e Microsoft Threat Intelligence nel febbraio di quest’anno ha rivelato gli sforzi da parte di autori di minacce affiliati allo stato per sfruttare questi modelli, con conseguente interruzione di cinque di questi attori malintenzionati affiliati allo stato.
Manteniamolo reale
La conclusione è che, anche se non possiamo sottovalutare le sfide poste dall’intelligenza artificiale, dobbiamo farlo con una chiara comprensione della realtà.
Ciò significa affrontare i difetti esistenti, comprese le carenze nelle politiche relative alle Big Tech, il calo di fiducia nei media e altri rischi associati alle tecnologie emergenti.
Senza affrontare questi problemi all’interno del nostro attuale ecosistema, stiamo creando un terreno fertile dove la disinformazione e altri fenomeni dannosi continueranno a prosperare.
Kalim Ahmed è un investigatore digitale specializzato in operazioni di disinformazione e influenza.
Noi di Euronews crediamo che tutte le opinioni siano importanti. Contattaci a view@euronews.com per inviare proposte o contributi e prendere parte alla conversazione.
Image:Getty Images