Di & nbspanna desmarais & nbsp && nbspAp
Pubblicato su
L’intelligenza artificiale (AI) sarà necessaria per combattere contro i profondi a-generati realistici, dicono gli esperti.
L’Organizzazione mondiale della proprietà intellettuale (WIPI) definisce un profondo come una tecnica di intelligenza artificiale che sintetizza i media sovrapponendo le caratteristiche umane su un altro corpo o manipolando suoni per generare un video realistico.
Quest’anno, le truffe di alto profilo Deepfake hanno preso di mira il Segretario di Stato degli Stati Uniti Marco RubioMinistro della difesa italiano Guido Crosettoe diverse celebrità, tra cui Taylor Swift e Joe Rogan, le cui voci venivano usate per promuovere una truffa che prometteva fondi del governo delle persone.
I DeepFakes venivano creati ogni cinque minuti nel 2024, secondo un recente rapporto del think tank di affidamento Cybersecurity Institute.
Quali impatti hanno i DeepFakes?
DeepFakes può avere gravi conseguenze, come la divulgazione di informazioni sensibili con funzionari governativi che suonano come Rubio o Crosetto.
“O stai cercando di estrarre segreti sensibili o informazioni competitive o stai andando dopo l’accesso a un server di posta elettronica o altra rete sensibile”, ha dichiarato Kinny Chan, CEO della società di sicurezza informatica QID, delle possibili motivazioni.
I media sintetici possono anche mirare a modificare il comportamento, come una truffa che ha usato la voce dell’allora presidente degli Stati Uniti Joe Biden per convincere gli elettori a non partecipare alle elezioni del loro stato l’anno scorso.
“Mentre DeepFakes ha applicazioni in intrattenimento e creatività, il loro potenziale per diffondere notizie false, creare contenuti non consensuali e minare la fiducia nei media digitali è problematico”, ha scritto il Parlamento europeo in un briefing di ricerca.
Il Parlamento europeo ha previsto che 8 milioni di fati profondi saranno condivisi in tutta l’Unione europea quest’anno, rispetto ai 500.000 del 2023.
Quali sono alcuni modi in cui l’IA sta combattendo?
Gli strumenti di intelligenza artificiale possono essere addestrati attraverso la classificazione binaria in modo da poter classificare i dati che vengono alimentati in loro come reali o falsi.
Ad esempio, i ricercatori dell’Università del Lussemburgo hanno dichiarato di aver presentato AI una serie di immagini con un tag reale o falso su di esse in modo che il modello abbia gradualmente imparato a riconoscere i modelli in immagini false.
“La nostra ricerca ha scoperto che … potremmo concentrarci sull’insegnamento a cercare solo dati reali”, ha affermato il ricercatore Enjie Ghorbel. “Se i dati esaminati non si allineano con i modelli di dati reali, significa che è falso”.
Un’altra soluzione proposta da Vijay Balasubramaniyan, CEO e fondatore della società tecnologica Pindrop Security, è un sistema che analizza milioni di punti dati nel discorso di ogni persona per identificare rapidamente le irregolarità.
Il sistema può essere utilizzato durante i colloqui di lavoro o altre videoconferenze per rilevare se la persona utilizza software di clonazione vocale, ad esempio.
Un giorno, DeepFakes può percorrere la via dello spam e -mail, una sfida tecnologica che una volta ha minacciato di rovesciare l’utilità dell’e -mail, ha affermato Balasubramaniyan, CEO di Pindrop.
“Puoi prendere la visione disfattista e dire che saremo sottomessi alla disinformazione”, ha detto. “Ma questo non succederà”.
L’atto UE AI, che entra in vigore il 1 ° agosto, richiede che tutti i contenuti generati dall’IA, compresi i DeepFakes, siano etichettati in modo che gli utenti sappiano quando si imbattono in contenuti falsi online.
Image:Getty Images