Il CEO di OpenAI, la società dietro ChatGPT, ha detto ai politici statunitensi che regolamentare l’IA sarebbe “saggio” dati i pericoli che potrebbe comportare.
La tecnologia dell’intelligenza artificiale (AI) potrebbe causare “danni significativi al mondo”, ha detto il CEO di OpenAI, Sam Altman, ai politici negli Stati Uniti.
Parlando davanti al Congresso degli Stati Uniti, Altman ha affermato che l’idea di una regolamentazione governativa dell’IA “sarebbe abbastanza saggia” dati i potenziali rischi che pone alla società.
OpenAI è la società dietro il chat bot AI ChatGPT, l’app utente in più rapida crescita di tutti i tempi.
Costruita sulla tecnologia LLM (Large Language Model) GPT-3.5 dell’azienda, la popolarità dell’app ha portato l’IA generativa sotto i riflettori e ha portato le autorità di tutto il mondo a lottare per tenere il passo.
“I miei peggiori timori sono che noi… l’industria tecnologica, causiamo danni significativi al mondo. Penso che potrebbe accadere in molti modi diversi”, ha detto al comitato dei senatori.
Il presidente della riunione, il senatore democratico Richard Blumenthal, ha aperto i lavori con un discorso registrato che suonava come la sua voce, ma in realtà era un clone vocale addestrato sui suoi discorsi. Utilizzava il testo generato da ChatGPT.
Il risultato è stato impressionante, ha detto Blumenthal, ma ha aggiunto: “E se avesse fornito un sostegno alla resa dell’Ucraina o alla leadership di Vladimir Putin?”
Blumenthal ha affermato che le aziende di intelligenza artificiale dovrebbero essere tenute a testare i propri sistemi e rivelare i rischi noti prima di rilasciarli, e ha espresso particolare preoccupazione su come i futuri sistemi di intelligenza artificiale potrebbero destabilizzare il mercato del lavoro.
Altman era ampiamente d’accordo con i sentimenti espressi dai politici.
“Penso che se questa tecnologia va storta, può andare molto storto e vogliamo essere espliciti al riguardo”, ha detto. “Vogliamo lavorare con il governo per evitare che ciò accada. Ma cerchiamo di essere molto lucidi su quale sia il caso negativo e sul lavoro che dobbiamo fare per mitigarlo”.
Ha proposto la formazione di un’agenzia statunitense o globale che autorizzerebbe i più potenti sistemi di intelligenza artificiale e avrebbe l’autorità di “togliere quella licenza e garantire il rispetto degli standard di sicurezza”.
Sul futuro del lavoro, che è stato una preoccupazione particolare per molti di fronte all’accelerazione dell’automazione dell’IA, Altman ha affermato di ritenere che “ci saranno posti di lavoro molto più numerosi dall’altra parte e che i lavori di oggi miglioreranno”.
Le preoccupazioni iniziali sui chatbot come ChatGPT, che possono generare una scrittura realistica simile a quella umana in pochi secondi, erano incentrate su come potrebbe influenzare l’istruzione con gli studenti che potenzialmente lo usano per imbrogliare i compiti.
Ma la successiva rapida diffusione della tecnologia AI ha portato a preoccupazioni più ampie sugli strumenti utilizzati per fuorviare le persone, diffondere disinformazione, violare le protezioni del copyright e sottrarre posti di lavoro.
Nuove regole in arrivo in Europa
Non ci sono segnali immediati che il Congresso elaborerà nuove e radicali regole sull’IA negli Stati Uniti, ma la regolamentazione sta prendendo forma dall’altra parte dell’Atlantico in Europa.
Una commissione del Parlamento europeo ha votato la scorsa settimana per rafforzare la sua proposta legislativa relativa alla regolamentazione dell’IA, mentre l’UE elabora la sua ambiziosa legge sull’IA.
Il disegno di legge dell’UE è incentrato sulla classificazione dei sistemi di intelligenza artificiale in quattro livelli di rischio. I sistemi ritenuti privi di rischio non saranno soggetti a molta regolamentazione, mentre quelli ritenuti in grado di presentare un livello di rischio inaccettabile saranno vietati.
Esempi di un rischio inaccettabile AI, secondo i piani, includono “il punteggio sociale da parte dei governi, ai giocattoli che utilizzano l’assistenza vocale che incoraggia comportamenti pericolosi”.
“Questo è un momento straordinario per lavorare sull’intelligenza artificiale. Ma con l’avanzare di questa tecnologia, capiamo che le persone sono ansiose di come potrebbe cambiare il modo in cui viviamo”, ha detto Altman al comitato.
“Dato che il prossimo anno dovremo affrontare le elezioni e questi modelli stanno migliorando, penso che questa sia un’area di preoccupazione significativa. Penso che ci siano molte politiche che le aziende possono adottare volontariamente”.
OpenAI ha espresso queste preoccupazioni esistenziali sin dal suo inizio.
Co-fondata da Altman nel 2015 con il sostegno del miliardario tecnologico Elon Musk, la startup si è evoluta da un laboratorio di ricerca senza scopo di lucro con una missione incentrata sulla sicurezza in un’azienda. I suoi altri famosi prodotti AI includono il creatore di immagini DALL-E.
Microsoft ha investito miliardi di dollari nella startup e ha integrato la sua tecnologia nei propri prodotti, incluso il suo motore di ricerca Bing.
Image:Getty Images