Hacker cinesi sfruttano l’IA di Anthropic in attacchi informatici gravi

Hacker cinesi sfruttano l’IA di Anthropic in attacchi informatici gravi

Cyberattacchi automatizzati con AI: hacker cinesi sfruttano la tecnologia di Anthropic

Pubblicato il 14 novembre 2025, 15:56 GMT+1


L’attacco informatico orchestrato con l’intelligenza artificiale: il caso Anthropic

La startup statunitense Anthropic, specializzata in intelligenza artificiale, ha lanciato un allarme senza precedenti: hacker cinesi sponsorizzati dallo Stato avrebbero impiegato i suoi avanzati strumenti di AI per condurre attacchi informatici automatizzati contro obiettivi di rilievo globale. Tra questi, si annoverano aziende leader nei settori finanziario e tecnologico, oltre a importanti agenzie governative.

Secondo la società californiana, gli attacchi – circa 30 campagne mirate – sono stati portati avanti con “grande fiducia” nella loro attribuzione verso un gruppo hacker legato al governo cinese. Ciò rappresenterebbe, nelle parole di Anthropic, la prima campagna di spionaggio informatico completamente orchestrata mediante intelligenza artificiale.


Claude Code: l’IA ingannata per favorire l’intrusione digitale

Gli hacker hanno sfruttato “Claude Code”, uno strumento di intelligenza artificiale sviluppato da Anthropic, noto per le sue capacità di programmazione automatizzata e analisi testuale. Tuttavia, invece di utilizzarlo secondo le sue funzioni lecite, i criminali hanno messo in atto un sofisticato inganno per abilitarlo a svolgere attività dannose.

Pur essendo progettato con protocolli di sicurezza per evitare comportamenti malevoli, Claude Code è stato manipolato attraverso false richieste camuffate da test di sicurezza informatica, permettendo così di estrarre e organizzare dati sensibili da reti altamente protette. L’obiettivo ultimo era identificare informazioni strategiche da utilizzare per finalità di spionaggio.

Anthropic ha rivelato che l’85% dell’attività malevola è stata effettuata dall’intelligenza artificiale in maniera automatizzata, con un intervento umano ridotto a sporadiche operazioni di supervisione.


Le implicazioni future della sicurezza informatica nell’era dell’AI

Il capo del settore pubblico presso Check Point Software Technologies, Graeme Stewart, ha commentato che, se confermate, queste operazioni dimostrano come i gruppi ostili abbiano abbandonato la fase sperimentale sull’uso dell’intelligenza artificiale per la cybercriminalità, rendendo tale tecnologia uno strumento già pienamente operativo.

Anthropic ha individuato l’attacco a metà settembre 2025 e ha subito avviato un’indagine interna. In meno di due settimane, la compagnia è riuscita a bloccare l’accesso degli hacker a Claude Code, informando contestualmente le organizzazioni coinvolte e collaborando con le forze dell’ordine.

La startup sta ora potenziando i propri sistemi di rilevamento per contrastare efficacemente simili minacce su larga scala, ponendo un’attenzione particolare alle tecniche di cyber attacco basate sull’intelligenza artificiale. Gli esperti sottolineano inoltre che altri modelli di AI diffusi sul mercato potrebbero essere vulnerabili a exploit analoghi, aprendo nuove sfide nel campo della sicurezza digitale.

Stewart conclude ammonendo che qualunque assistente AI ampiamente utilizzato rischia di essere trasformato in un “kit criminogeno” dal primo soggetto con intenzioni malevole, a conferma della crescente necessità di sviluppare soluzioni di difesa altrettanto innovative.


Conclusioni

La vicenda che coinvolge la startup Anthropic e gli hacker cinesi sponsorizzati dallo Stato sottolinea un’evoluzione cruciale nel panorama della sicurezza informatica globale. L’utilizzo dell’intelligenza artificiale per orchestrare attacchi automatizzati rappresenta una nuova frontiera, capace di amplificare in modo esponenziale la portata e la sofisticazione degli attacchi digitali.

Per aziende, istituzioni e governi, questa consapevolezza si traduce nell’urgenza di adottare strategie di difesa all’avanguardia e di investire in strumenti capaci di riconoscere e neutralizzare minacce generate dall’intelligenza artificiale stessa. Solo facendo un passo avanti in questa corsa tecnologica sarà possibile proteggere dati e informazioni preziose da un nemico che evolve rapidamente, plasmato dalle nuove potenzialità offerte dall’AI.

TenMagazine continuerà a seguire gli sviluppi di questa storia e a raccontare come il mondo digitale si confronta con il futuro della sicurezza e della protezione dai rischi cyber.