Cybercrime e Intelligenza Artificiale: perché i criminali restano delusi

Cybercrime e Intelligenza Artificiale: perché i criminali restano delusi

Cybercriminalità e intelligenza artificiale: una sfida ancora irrisolta

Un recente studio condotto dall’Università di Edimburgo getta nuova luce sul rapporto tra criminalità informatica e intelligenza artificiale (AI), evidenziando come i cybercriminali stentino ad integrare efficacemente queste avanzate tecnologie nel proprio modus operandi. L’analisi, basata su oltre 100 milioni di messaggi estratti dai forum clandestini tramite il database CrimeBB, ha combinato metodi di scrutinio manuale e l’impiego di modelli linguistici di grandi dimensioni (LLM) per offrire uno sguardo approfondito sull’argomento.

L’impatto limitato dell’intelligenza artificiale nel cybercrime

Nonostante un crescente interesse degli hacker verso gli strumenti di intelligenza artificiale, i ricercatori hanno constatato che la AI non ha ancora rivoluzionato l’approccio al crimine informatico. Molti interventi rilevati nei forum descrivono le soluzioni basate sull’AI come poco performanti o addirittura inefficaci nel migliorare il rendimento delle attività illecite. A conferma di ciò, lo studio non ha individuato alcuna prova significativa che dimostri come l’AI sia stata utilizzata con successo per affinare le tecniche di hacking o per facilitare l’apprendimento in questo contesto.

Gli assistenti di codifica automatizzati, sebbene utili, si rivelano vantaggiosi soprattutto per chi possiede già una solida esperienza di programmazione. Come emerge dal report, “è necessario apprendere prima le basi del coding per poter davvero beneficiare dell’intelligenza artificiale”, un fattore che limita l’impatto immediato di questi strumenti tra gli hacker.

Strumenti e limitazioni dell’AI nei forum clandestini

Le discussioni raccolte testimoniano un uso marginale dell’intelligenza artificiale soprattutto negli ambiti tradizionali dei prodotti “legittimi”, come i chatbot Claude di Anthropic o Codex di OpenAI. Al contrario, i modelli di AI specificamente ideati per scopi malevoli, ad esempio WormGPT, progettati per generare codice malware o campagne di phishing, non sembrano ancora diffusi o efficaci all’interno dei circuiti criminali.

Un aspetto particolarmente interessante riguarda la difficoltà riscontrata dai cybercriminali nel superare i rigidi sistemi di sicurezza integrati nelle piattaforme AI mainstream: diversi post discutono tentativi di aggirare queste barriere senza successo. Di conseguenza, molti hacker si affidano a versioni open source più datate e di qualità inferiore, modelli più facilmente “bucabili” ma che richiedono risorse e competenze elevate, limitandone così le potenzialità.

Cybersecurity e intelligenza artificiale: un equilibrio in evoluzione

Lo studio suggerisce che le misure di sicurezza implementate dalle aziende sviluppatrici di intelligenza artificiale stanno finora svolgendo un ruolo efficace nel prevenire un uso improprio delle tecnologie AI da parte della criminalità informatica. Questi “guardrail” – o meccanismi di controllo – rappresentano un elemento chiave per mantenere il controllo su strumenti dal potenziale enorme ma anche delicato.

Nel contesto attuale, infatti, la diffusione e l’utilizzo dell’intelligenza artificiale nel cybercrime rimangono limitati da ostacoli tecnici e operativi, dando respiro alle strategie di contrasto e offrendo al tempo stesso una preziosa finestra per approfondire il rapporto tra tecnologia e sicurezza digitale.

Conclusioni

La ricerca dell’Università di Edimburgo conferma che, nonostante il potenziale rivoluzionario dell’intelligenza artificiale in molteplici ambiti, il suo impiego nel settore della criminalità informatica è ancora «un work in progress». Hacker e cybercriminali dimostrano interesse verso questi strumenti ma faticano a integrarli in modo profittevole, ostacolati da competenze di base insufficienti, sofisticati sistemi di protezione e limiti tecnologici intrinseci.

Questo scenario sottolinea l’importanza di continuare a sviluppare e rafforzare le difese digitali, mantenendo il passo con le evoluzioni tecnologiche, e allo stesso tempo riconosce come l’intelligenza artificiale possa costituire un valido alleato nella prevenzione e nel contrasto alle minacce informatiche, proteggendo così un mondo sempre più interconnesso e vulnerabile.