Personalità di rilievo nell’intelligenza artificiale, nel business e nei media sollecitano una pausa nella competizione verso la superintelligenza artificiale

Figure di spicco dell’intelligenza artificiale, del mondo degli affari e dei media chiedono un rallentamento nella corsa alla superintelligenza artificiale

Pubblicato il
Aggiornato

Oltre 850 figure pubbliche, inclusi esperti di intelligenza artificiale (IA) e leader del settore tecnologico, hanno richiesto una pausa nello sviluppo di una forma di intelligenza artificiale capace di superare il cervello umano, chiamata “superintelligenza”.

Importanti studiosi informatici come il premio Nobel Geoffrey Hinton e Yoshua Bengio – considerati i pionieri dell’intelligenza artificiale – hanno apposto la loro firma alla lettera, così come il co-fondatore di Apple Steve Wozniak e il fondatore del Virgin Group Richard Branson.

La superintelligenza è generalmente definita come un sistema di intelligenza artificiale che supera le capacità cognitive delle persone, cosa che alcuni specialisti temono possa far perdere agli esseri umani il controllo su tali tecnologie. Secondo una previsione degli anni ’50 dello storico informatico Alan Turing, il risultato finale potrebbe essere che le macchine prendano il comando.

I responsabili politici mondiali sottolineano che vincere la competizione sul fronte dell’intelligenza artificiale è fondamentale per la sicurezza nazionale e per i progressi nel settore sanitario, commerciale e tecnologico.

Intanto, società tecnologiche come Meta utilizzano la parola “superintelligenza” come slogan per promuovere i loro più recenti modelli di intelligenza artificiale. Nel corso di quest’anno, Meta ha ribattezzato la sua divisione LLM (Large Language Model) con la denominazione Meta Superintelligence Labs.

La lettera evidenzia che la corsa verso la superintelligenza dell’IA “sta suscitando timori che spaziano dall’obsolescenza e impotenza economica degli esseri umani, alla perdita di libertà, diritti civili, dignità e controllo, fino ai rischi per la sicurezza nazionale e perfino una possibile estinzione dell’umanità”.

Viene richiesto un “divieto allo sviluppo della superintelligenza, che non potrà essere revocato finché non ci sarà un ampio consenso scientifico sul fatto che sarà realizzato in modo sicuro e controllato, insieme a un forte consenso pubblico”.

Leader nel campo dell’IA come il CEO di OpenAI Sam Altman hanno in passato affermato che la creazione dell’intelligenza artificiale superiore a quella umana (SMI) “rappresenta probabilmente la più grande minaccia per la sopravvivenza dell’umanità”.

Nel frattempo il CEO di Microsoft, Mustafa Suleyman, ha dichiarato che “fino a quando non saremo capaci di dimostrare con certezza che è sicura, non dovremmo crearla”.

Tuttavia, né Altman né Suleyman figurano tra i firmatari della lettera.

Altman ha inoltre promosso il concetto di intelligenza artificiale generale (AGI), definita in modo approssimativo come un’IA capace di eguagliare o superare le capacità cognitive umane, vista come un passo preliminare rispetto alla superintelligenza.

Per Altman l’AGI è un tipo ipotetico di intelligenza artificiale in grado di risolvere qualsiasi problema umano con metodi non limitati alla fase di apprendimento. Ha sostenuto che può “migliorare l’umanità”, senza riferirsi a un dominio delle macchine sugli uomini.

Oltre a esperti tecnologici, i firmatari della dichiarazione comprendono accademici, personalità dei media come Steven Fry e Steve Bannon, leader religiosi ed ex politici.