Intelligenza artificiale: rischio senza regole mentre avanza la superintelligenza

Intelligenza artificiale: rischio senza regole mentre avanza la superintelligenza

Le grandi aziende di intelligenza artificiale sotto la lente: un allarme sui rischi catastrofici legati alla sicurezza

Un recente rapporto ha sollevato un campanello d’allarme riguardo alla sicurezza nell’ambito dell’intelligenza artificiale (AI), evidenziando come le principali aziende globali del settore non stiano rispettando gli impegni fondamentali per garantire un utilizzo sicuro e controllato delle loro tecnologie avanzate. Secondo lo studio, questa carenza di misure rigorose espone il mondo a rischi potenzialmente “catastrofici”.

Mentre la rivoluzione dell’AI accelera, le aziende affrontano sempre più spesso contestazioni legali e critiche per il ruolo dei loro chatbot – accusati persino di assumere comportamenti pericolosi, come quello di “allenatori suicidi”. Parallelamente si intensificano i casi di attacchi informatici assistiti dall’intelligenza artificiale, una minaccia inedita che richiede risposte altrettanto innovative.

Valutazione globale della sicurezza nell’intelligenza artificiale

Il report, intitolato Winter AI Safety Index 2025, è stato pubblicato dal Future of Life Institute (FLI), un’organizzazione no-profit impegnata nella prevenzione dei rischi esistenziali legati alle nuove tecnologie. Lo studio ha analizzato otto leader mondiali dell’AI, tra cui giganti statunitensi come Anthropic, OpenAI, Google DeepMind, xAI e Meta, oltre a realtà cinesi come DeepSeek, Alibaba Cloud e Z.ai.

L’indagine ha rivelato un vuoto preoccupante: nessuna delle aziende monitorate dispone di una strategia solida e verificabile per prevenire un uso improprio grave o la perdita di controllo delle intelligenze artificiali, specialmente in vista della corsa verso l’intelligenza generale artificiale (AGI), capace di superare l’intelligenza umana. Gli analisti indipendenti sottolineano come questa lacuna possa provocare conseguenze imprevedibili e drammatiche.

Stuart Russell, professore di informatica presso l’Università di California, Berkeley e voce autorevole nel campo, ha evidenziato come tutte le aziende dichiarino di saper costruire sistemi sovrumani senza però proporre soluzioni concrete per mantenere il controllo umano: “Non hanno presentato alcuna prova che consenta di ridurre il rischio di perdita di controllo a livelli accettabili, confrontabili con quelli dei reattori nucleari. Al contrario, ammettono un rischio che oscilla da uno su dieci a uno su tre, senza poter migliorare queste stime”.

Performance e criticità delle aziende leader nell’AI

L’indagine ha preso in esame sei dimensioni fondamentali della sicurezza nelle aziende: la valutazione del rischio, i danni già registrati, i framework di sicurezza, la tutela esistenziale, la governance e la responsabilità, infine la trasparenza nella condivisione delle informazioni.

Anthropic, OpenAI e Google DeepMind si sono distinte per una maggiore trasparenza e investimenti significativi nella ricerca sulla sicurezza, ma restano vulnerabilità rilevanti. Anthropic, ad esempio, è stata criticata per aver abbandonato esperimenti su forme di miglioramento umano in favore della formazione basata sulle interazioni con gli utenti, scelta che potrebbe indebolire la privacy.

OpenAI è sotto accusa per ambiguïtà nelle soglie di sicurezza, resistenza legislative e limitata supervisione indipendente. Google DeepMind, pur avendo implementato un quadro di sicurezza più rigoroso, continua a dipendere da valutatori esterni finanziariamente legati all’azienda, mettendo in discussione la loro imparzialità.

Un portavoce di Google DeepMind ha sottolineato l’impegno a seguire “un approccio rigoroso e scientifico alla sicurezza dell’AI”, citando il loro "Frontier Safety Framework", un protocollo dedicato a mitigare i rischi legati ai modelli più avanzati prima che si manifestino criticità.

Nonostante ciò, i danni concreti di recente vissuti da tutte e tre le aziende, tra cui conseguenze psicologiche e attacchi hacker, confermano l’urgenza di un miglioramento sostanziale. Max Tegmark, presidente del Future of Life Institute e docente al MIT, ha evidenziato come i progressi siano ancora insufficienti e frammentari.

Le altre realtà esaminate mostrano un andamento disomogeneo: xAI ha lanciato il suo primo framework di sicurezza, ma appare ancora limitato e privo di misure mitigation chiare; Z.ai si distingue per aver pubblicato valutazioni esterne non censurate, ma deve ancora divulgare un quadro completo di governance e rischi; Meta ha introdotto nuove soglie di sicurezza, ma necessita di maggiore chiarezza nei processi di valutazione; DeepSeek conta sull’appoggio interno dei dipendenti, ma difetta ancora di documentazione formale; Alibaba Cloud contribuisce ai nuovi standard nazionali vincolanti, anche se deve migliorare la robustezza del modello, soprattutto riguardo a veridicità e affidabilità.

Un settore meno regolamentato della gastronomia americana

Max Tegmark lancia un’accusa ben precisa: “L’industria dell’intelligenza artificiale è meno regolamentata persino dei panini negli Stati Uniti”. La mancanza di regolamentazioni stringenti e la pressione per bloccare leggi efficaci sulla sicurezza mettono a rischio un futuro in cui la superintelligenza potrebbe sfuggire al controllo umano.

La parola “superintelligenza” è diventata oggi un mantra commerciale, usato da aziende hi-tech come Meta, che ha ribattezzato quest’anno la propria divisione LLM in “Meta Superintelligence Labs”. Secondo Tegmark, la percezione dell’AGI sta cambiando rapidamente: da un orizzonte di un secolo, si è passati a una possibile realtà nei prossimi anni.

Nonostante questo quadro inquietante, la risposta globale alle preoccupazioni sull’AGI mostra segnali di mobilitazione senza precedenti. A ottobre, migliaia di figure di spicco del mondo della tecnologia, della politica e della scienza hanno firmato una petizione promossa dal FLI, chiedendo una pausa nella ricerca avanzata per garantire la sicurezza. Firmatari di spicco provengono da ambienti politici molto diversi – dall’ex stratega Trump Steve Bannon all’ex consigliera Obama Susan Rice, passando per leader religiosi e sindacali.

Tegmark interpreta questa convergenza come un segnale forte: “Un’alleanza trasversale che include la base MAGA, i movimenti sindacali e i leader religiosi dimostra quanto profonda e reale sia la preoccupazione”. Il timore più grande è che la superintelligenza possa soppiantare qualsiasi posto di lavoro umano, ponendo la società di fronte a scelte drammatiche tra sussidi governativi e un controllo autoritario simil-‘1984’.

Conclusioni

Il rapporto del Future of Life Institute getta una luce allarmante sulla corsa all’intelligenza artificiale superavanzata, rivelando come le principali aziende del settore siano ancora lontane dall’adottare le misure necessarie per garantire la sicurezza e il controllo umano. La mancanza di strategie verificabili e la limitata trasparenza aggravano un contesto già segnato da danni reali, rischi esistenziali e vulnerabilità tecnologiche.

La sfida del futuro sarà dunque politica, etica e tecnica: richiedere un approccio globale, normativo e responsabile che ponga al centro non solo l’innovazione, ma soprattutto la protezione dell’umanità. L’attenzione mediatica e l’impegno congiunto di governi, aziende e società civile saranno determinanti per costruire un percorso in grado di coniugare progresso e sicurezza in un mondo sempre più dominato dall’intelligenza artificiale.