ChatGPT e simili strumenti di intelligenza artificiale si stanno rivelando utili in molti contesti diversi ed Europol teme che possano essere altrettanto utili per i criminali.
ChatGPT, l’app in più rapida crescita di tutti i tempi, ha dato alle persone la potenza di un’intelligenza artificiale (AI) intelligente con modello di linguaggio di grandi dimensioni, addestrata su un enorme database di informazioni da Internet, sulla punta delle dita.
Questo nuovo potere ha già portato a cambiamenti nel modo in cui molte persone svolgono il proprio lavoro o cercano informazioni su Internet, con la tecnologia di OpenAI che ispira sia l’entusiasmo per la promessa del futuro che l’IA può offrire, sia i timori per i cambiamenti che sta inaugurando.
Uno dei timori relativi alla tecnologia AI come ChatGPT è ciò che i criminali e altri cattivi attori faranno con quel potere.
Questo è ciò che Europol, l’agenzia delle forze dell’ordine dell’Unione Europea, ha esaminato nel suo recente rapporto su ChatGPT intitolato “L’impatto dei modelli linguistici di grandi dimensioni sulle forze dell’ordine‘.
ChatGPT, che si basa sulla tecnologia del modello di linguaggio di grandi dimensioni GPT3.5 di OpenAI, potrebbe rendere “significativamente più facile per gli attori malintenzionati comprendere meglio e successivamente eseguire vari tipi di crimine”, afferma il rapporto.
Questo perché, mentre le informazioni su cui ChatGPT è addestrato sono già disponibili gratuitamente su Internet, la tecnologia è in grado di fornire istruzioni dettagliate su tutti i tipi di argomenti, se riceve le giuste domande contestuali da un utente.
Ecco i tipi di crimine Europol avverte che i chatbot, o LLM, potrebbero potenzialmente aiutare i criminali.
Frode, impersonificazione e ingegneria sociale
ChatGPT e altri chatbot come Bard di Google hanno stupito gli utenti con la loro capacità di fornire una scrittura simile a quella umana su qualsiasi argomento, in base ai suggerimenti degli utenti.
Possono impersonare gli stili di scrittura delle celebrità e imparare uno stile di scrittura dal testo inserito, prima di creare più scrittura in quello stile appreso. Questo apre il sistema al potenziale utilizzo da parte di criminali che vogliono impersonare qualcuno o lo stile di scrittura di un’organizzazione, che potrebbe forse essere utilizzato nelle truffe di phishing.
Europol avverte inoltre che ChatGPT potrebbe essere utilizzato per legittimare vari tipi di frode online, ad esempio creando masse di falsi contenuti sui social media per promuovere un’offerta di investimento fraudolenta.
Uno dei segni sicuri di potenziali frodi nelle comunicazioni via e-mail o sui social media è attraverso evidenti errori di ortografia o grammaticali commessi dai criminali che scrivono il contenuto.
Con il potere degli LLM a portata di mano, anche i criminali con poca conoscenza della lingua inglese sarebbero in grado di generare contenuti che non hanno più queste bandiere rosse.
La tecnologia è anche pronta per essere utilizzata da coloro che cercano di creare e diffondere propaganda e disinformazione, poiché è abile nel creare argomentazioni e narrazioni a grande velocità.
Criminalità informatica per principianti
ChatGPT non è solo bravo a scrivere parole, ma è anche esperto in numerosi linguaggi di programmazione. Secondo Europol, ciò significa che potrebbe avere un impatto sulla criminalità informatica.
“Con l’attuale versione di ChatGPT, è già possibile creare strumenti di base per una varietà di scopi dannosi”, avverte il rapporto.
Questi sarebbero strumenti di base per produrre pagine di phishing, ad esempio, ma consentono ai criminali con poca o nessuna conoscenza di codifica di creare cose che non potevano creare prima.
Gli inevitabili miglioramenti nelle capacità LLM significano che lo sfruttamento da parte dei criminali “fornisce una prospettiva cupa” nei prossimi anni.
Il fatto che l’ultima versione del suo trasformatore di OpenAI, GPT-4, sia migliore nel comprendere il contesto del codice e correggere gli errori, significa che “questa è una risorsa inestimabile” per i criminali con scarse conoscenze tecniche.
Europol avverte che con la tecnologia AI destinata a migliorare, può diventare molto più avanzata “e di conseguenza pericolosa”.
I deepfake hanno già conseguenze nel mondo reale
I casi d’uso per ChatGPT segnalati da Europol sono solo un’area dell’intelligenza artificiale che potrebbe essere sfruttata dai criminali.
Ci sono già stati casi di deep fake AI utilizzati per truffare e danneggiare le persone. In un caso, una donna ha affermato di avere solo 18 anni quando ha scoperto che circolavano online foto pornografiche di lei, nonostante non avesse mai scattato o condiviso quelle immagini.
Il suo volto era stato aggiunto digitalmente alle immagini del corpo di un’altra persona. Ha detto a Euronews Next che si trattava di “una condanna a vita”. Un rapporto dei Deeptrace Labs del 2019 ha rilevato che il 96% dei contenuti deepfake online è pornografia non consensuale.
Un altro caso ha visto l’intelligenza artificiale utilizzata per imitare il suono della voce di qualcuno per truffare il proprio familiare, utilizzando una tecnica di deepfake audio.
Europol ha concluso il suo rapporto affermando che è importante che le forze dell’ordine “rimangano in prima linea in questi sviluppi” e anticipino e prevengano l’uso criminale dell’intelligenza artificiale.
Image:Getty Images