Ecco alcune delle maggiori preoccupazioni espresse sul futuro dell’IA e dell’umanità.
Eminenti esperti di intelligenza artificiale (AI) hanno lanciato l’allarme per il ritmo e l’entità dei recenti progressi nel campo, avvertendo che rappresentano niente di meno che una minaccia per l’umanità.
Questi includono Geoffrey Hinton, un pluripremiato scienziato informatico noto come il “padrino dell’IA”, che ha lasciato il suo lavoro in Google il mese scorso per condividere le sue preoccupazioni sullo sviluppo incontrollato di nuovi strumenti di intelligenza artificiale.
“Ho cambiato improvvisamente opinione sul fatto che queste cose saranno più intelligenti di noi”, ha detto Hinton, 75 anni, in un’intervista al MIT Technology Review questa settimana.
“Penso che ci siano molto vicini ora e saranno molto più intelligenti di noi in futuro… Come sopravviviamo?”
Hinton non è solo nelle sue preoccupazioni. A febbraio, persino Sam Altman, CEO dello sviluppatore di ChatGPT OpenAI, ha affermato che il mondo potrebbe non essere “così lontano da potenzialmente spaventosoStrumenti di intelligenza artificiale – e quel regolamento sarebbe fondamentale ma richiederebbe tempo per essere compreso.
Poco dopo che la start-up sostenuta da Microsoft ha rilasciato il suo ultimo modello di intelligenza artificiale chiamato GPT-4 a marzo, più di 1.000 ricercatori e tecnici hanno firmato una lettera che chiedeva un pausa di sei mesi sullo sviluppo dell’intelligenza artificiale perché, hanno affermato, pone “profondi rischi per la società e l’umanità”.
Ecco uno sguardo alle maggiori preoccupazioni espresse da Hinton e altri esperti.
1. L’intelligenza artificiale potrebbe già essere più intelligente di noi
I nostri cervelli umani possono risolvere equazioni, guidare automobili e tenere traccia delle serie Netflix grazie al loro talento innato nell’organizzare e archiviare informazioni e ragionare su soluzioni a problemi spinosi.
I circa 86 miliardi di neuroni stipati nei nostri crani – e, cosa più importante, i 100 trilioni di connessioni che questi neuroni creano tra loro – lo rendono possibile.
Al contrario, la tecnologia alla base di ChatGPT presenta tra 500 miliardi e un trilione di connessioni, ha affermato Hinton. Sebbene ciò sembrerebbe metterlo in grave svantaggio rispetto a noi, Hinton osserva che GPT-4, l’ultimo modello di intelligenza artificiale di OpenAI, conosce “centinaia di volte di più” di qualsiasi singolo essere umano. Forse, suggerisce, ha un “algoritmo di apprendimento molto migliore” di noi, rendendolo più efficiente nei compiti cognitivi.
I ricercatori hanno da tempo notato che le reti neurali artificiali impiegano molto più tempo per assorbire e applicare nuove conoscenze rispetto alle persone, poiché la loro formazione richiede enormi quantità di energia e dati.
Non è più così, sostiene Hinton, osservando che sistemi come GPT-4 possono apprendere cose nuove molto rapidamente una volta adeguatamente addestrati dai ricercatori. Non è diverso dal modo in cui un fisico professionista qualificato può avvolgere il cervello intorno a nuove scoperte sperimentali molto più rapidamente di quanto potrebbe fare un tipico studente di scienze delle superiori.
Ciò porta Hinton alla conclusione che i sistemi di intelligenza artificiale potrebbero già essere più intelligenti di noi: non solo possono imparare le cose più velocemente, ma possono anche condividere copie delle loro conoscenze tra loro quasi istantaneamente.
“È una forma di intelligenza completamente diversa”, ha detto ha dichiarato al MIT Technology Review. “Una nuova e migliore forma di intelligenza”.
2. L’intelligenza artificiale può “potenziare” la diffusione della disinformazione
Cosa farebbero i sistemi di IA più intelligenti degli umani? Una possibilità inquietante è che individui, gruppi o stati-nazione malintenzionati possano semplicemente cooptarli per promuovere i propri fini.
Dozzine di siti di notizie false si sono già diffusi sul Web in più lingue, alcuni pubblicando centinaia di articoli generati dall’intelligenza artificiale al giorno, secondo un nuovo rapporto di NewsGuard, che valuta la credibilità dei siti Web e tiene traccia della disinformazione online.
Hinton è particolarmente preoccupato che gli strumenti di intelligenza artificiale possano essere addestrati per influenzare le elezioni e persino scatenare guerre.
La disinformazione elettorale diffusa tramite chatbot di intelligenza artificiale, ad esempio, potrebbe essere la versione futura della disinformazione elettorale diffusa tramite Facebook e altre piattaforme di social media.
E questo potrebbe essere solo l’inizio.
“Non pensare per un momento che Putin non creerebbe robot iper-intelligenti con l’obiettivo di uccidere gli ucraini”, ha detto Hinton nell’articolo. “Non esiterebbe”.
3. L’intelligenza artificiale ci renderà ridondanti?
OpenAI stima che l’80% dei lavoratori negli Stati Uniti potrebbe vedere il proprio lavoro influenzato dall’intelligenza artificiale e un rapporto di Goldman Sachs afferma che la tecnologia potrebbe mettere a rischio 300 milioni di posti di lavoro a tempo pieno in tutto il mondo.
La sopravvivenza dell’umanità è minacciata quando “le cose intelligenti possono superarci in astuzia”, secondo Hinton.
“Potrebbe tenerci in giro per un po’ per mantenere in funzione le centrali elettriche”, ha detto mercoledì Hinton alla conferenza EmTech Digital del MIT Technology Review da casa sua tramite video. “Ma dopo, forse no”.
“Queste cose avranno imparato da noi, leggendo tutti i romanzi che siano mai esistiti e tutto ciò che Machiavelli abbia mai scritto, come manipolare le persone”, ha detto Hinton. “Anche se non possono tirare direttamente le leve, possono certamente farci tirare le leve”.
4. Non sappiamo bene come fermarlo
“Vorrei avere una bella soluzione semplice da spingere, ma non ce l’ho”, ha aggiunto Hinton. “Non sono sicuro che ci sia una soluzione”.
I governi, tuttavia, stanno prestando molta attenzione all’ascesa dell’IA. La Casa Bianca ha invitato gli amministratori delegati di Google, Microsoft e OpenAI, creatore di ChatGPT, a incontrarsi giovedì con il vicepresidente Kamala Harris in quella che viene descritta dai funzionari come una franca discussione su come mitigare i rischi sia a breve che a lungo termine. della loro tecnologia.
I legislatori europei stanno anche accelerando i negoziati per approvare nuove e radicali regole sull’IA e l’autorità di regolamentazione della concorrenza del Regno Unito prevede di esaminare l’impatto dell’IA sui consumatori, le imprese e l’economia e se sono necessari nuovi controlli su tecnologie come ChatGPT.
Ciò che non è chiaro è come qualcuno possa impedire a una potenza come la Russia di utilizzare la tecnologia AI per dominare i suoi vicini o i suoi stessi cittadini.
Hinton suggerisce che un accordo globale simile alla Convenzione sulle armi chimiche del 1997 potrebbe essere un buon primo passo verso l’istituzione di regole internazionali contro l’IA armata.
Anche se vale anche la pena notare che il patto sulle armi chimiche non ha fermato quelli che gli investigatori hanno scoperto essere probabilmente attacchi siriani con gas di cloro e l’agente nervino sarin contro i civili nel 2017 e nel 2018 durante la sanguinosa guerra civile della nazione.
Image:Getty Images