Immagina di ricevere una telefonata da un familiare. Sembrano angosciati e ti pregano di inviare loro denaro.
Alla fine, scopri di essere stato truffato. La chiamata che hai ricevuto non è mai stata loro, ma una voce falsa creata utilizzando l’intelligenza artificiale (AI).
Questa non è la trama di un romanzo di fantascienza. In effetti, per migliaia di persone, è davvero una realtà.
Questa nuova tecnologia è chiamata deepfake audio (una combinazione di “deep learning” e “fake”). Con pochi euro di risparmio, puoi pagare un certo numero di aziende per produrre cloni vocali di alta qualità che possono essere abbastanza convincenti da ingannare qualcuno.
Un esempio recente che è diventato virale è quando gli utenti di 4chan, un forum online, ha replicato la voce dell’attrice britannica Emma Watson leggendo il Mein Kampf di Adolf Hitler.
Hanno usato uno strumento di clonazione vocale chiamato Prime Voice della start-up ElevenLabs. Un altro esempio di quanto stranamente accurata sia la loro tecnologia è la loro replica dell’attore Leonardo Di Caprio che parla alle Nazioni Unite.
Molti esperti iniziano a preoccuparsi. In primo luogo, questa tecnologia può essere utilizzata per la disinformazione; ad esempio, permettere alle persone di credere che un politico abbia fatto una dichiarazione scioccante che non hanno mai fatto. O in secondo luogo, per truffare le persone, soprattutto gli anziani.
Non richiede molto lavoro, secondo gli esperti di informatica.
“Non hanno bisogno di molta voce per fare una riproduzione abbastanza buona”, ha detto Matthew Wright, presidente di Computer Science presso il Rochester Institute of Technology in un’intervista a Euronews.
“Puoi immaginare che li chiamino, fingano di essere un venditore e catturino quanto basta dell’audio per farlo funzionare. E forse è tutto ciò di cui avrebbero bisogno per ingannare qualcuno”, ha spiegato.
Di recente, un giornalista di Vice è riuscito a entrare nel suo conto in banca usando una replica AI della sua voce. Ha ingannato la banca facendogli credere che fosse lui per accedere alle sue transazioni, mettendo in discussione i sistemi di sicurezza biometrici vocali.
La società era solita creare il deepfake audio di Emma Watson annunciato hanno aumentato il prezzo del loro servizio e hanno iniziato a verificare manualmente i nuovi account.
Ma gli esperti avvertono che la legislazione dovrebbe essere messa in atto per evitare tali truffe in futuro.
Cosa fare per evitare di essere truffati?
Prima di tutto, gli esperti suggeriscono di prestare attenzione alle chiamate impreviste e urgenti che chiedono denaro ai tuoi cari o al tuo lavoro.
Wright suggerisce di provare a porre loro alcune domande personali per verificare la loro identità.
“Dovresti provare a utilizzare una fonte diversa, un canale diverso. Inventa una scusa e dì che devi richiamarli. Quindi, richiama quello che sai essere il loro numero. Se stanno chiamando e hanno falsificato il numero, non riceveranno la richiamata”, ha detto a Euronews.
“Ma in generale, fai solo un passo indietro e pensa. Assicurati che questo abbia senso, ha davvero senso che il tuo capo ti chieda di comprare dieci $ 250 [€231] certificati regalo? Probabilmente no”.
Per ulteriori informazioni su questa storia, guarda il nostro rapporto da The Cube nel lettore multimediale in alto.
Image:Getty Images