L’amministrazione Biden ha parlato con Google, Microsoft e altri alla Casa Bianca per affrontare le principali preoccupazioni relative all’intelligenza artificiale (AI).
Il vicepresidente Kamala Harris ha incontrato giovedì i capi di Google, Microsoft e altre due società che sviluppano l’intelligenza artificiale mentre l’amministrazione Biden lancia iniziative volte a garantire che la tecnologia in rapida evoluzione migliori la vita senza mettere a rischio i diritti e la sicurezza delle persone.
Il presidente Joe Biden è intervenuto brevemente all’incontro nella Roosevelt Room della Casa Bianca, dicendo che sperava che il gruppo potesse “istruirci” su ciò che è più necessario per proteggere e far progredire la società.
“Quello che state facendo ha un enorme potenziale e un enorme pericolo”, ha detto Biden agli amministratori delegati, secondo un video pubblicato sul suo account Twitter.
La popolarità del chatbot di intelligenza artificiale ChatGPT – anche Biden ci ha provato, hanno detto giovedì i funzionari della Casa Bianca – ha scatenato un’ondata di investimenti commerciali in strumenti di intelligenza artificiale in grado di scrivere testi convincenti simili a quelli umani e sfornare nuove immagini, musica e codice per computer .
Ma la facilità con cui può imitare gli esseri umani ha spinto i governi di tutto il mondo a considerare come potrebbe sottrarre posti di lavoro, ingannare le persone e diffondere disinformazione.
L’amministrazione democratica ha annunciato un investimento di 140 milioni di dollari per fondare sette nuovi istituti di ricerca sull’IA.
Inoltre, nei prossimi mesi l’Ufficio per la gestione e il bilancio della Casa Bianca dovrebbe pubblicare linee guida su come le agenzie federali possono utilizzare gli strumenti di intelligenza artificiale. C’è anche un impegno indipendente da parte dei migliori sviluppatori di intelligenza artificiale a partecipare a una valutazione pubblica dei loro sistemi ad agosto alla convention degli hacker DEF CON di Las Vegas.
Ma la Casa Bianca deve anche intraprendere un’azione più forte poiché i sistemi di intelligenza artificiale costruiti da queste aziende vengono integrati in migliaia di applicazioni dei consumatori, ha affermato Adam Conner del Center for American Progress di orientamento liberale.
“Siamo in un momento che nei prossimi due mesi determinerà davvero se guidare o meno su questo o cedere la leadership ad altre parti del mondo, come abbiamo fatto in altri spazi di regolamentazione tecnologica come la privacy o la regolamentazione di grandi piattaforme online, disse Conner.
L’incontro è stato concepito come un modo per Harris e i funzionari dell’amministrazione di discutere i rischi nell’attuale sviluppo dell’IA con il CEO di Google Sundar Pichai, il CEO di Microsoft Satya Nadella e i capi di due startup influenti: Anthropic sostenuta da Google e OpenAI sostenuta da Microsoft, la creatore di ChatGPT.
Harris ha dichiarato in una dichiarazione dopo la riunione a porte chiuse di aver detto ai dirigenti che “il settore privato ha la responsabilità etica, morale e legale di garantire la sicurezza e la protezione dei propri prodotti”.
ChatGPT ha guidato una raffica di nuovi strumenti di “IA generativa” che si aggiungono alle preoccupazioni etiche e sociali sui sistemi automatizzati addestrati su vasti pool di dati.
Alcune delle aziende, tra cui OpenAI, sono state riservate sui dati su cui sono stati addestrati i loro sistemi di intelligenza artificiale. Ciò ha reso più difficile capire perché un chatbot stia producendo risposte distorte o false alle richieste o rispondere alle preoccupazioni sul fatto che stia rubando da opere protette da copyright.
Le aziende preoccupate di essere responsabili per qualcosa nei loro dati di formazione potrebbero anche non avere incentivi a tracciarli rigorosamente in un modo che sarebbe utile “in termini di alcune delle preoccupazioni relative al consenso, alla privacy e alle licenze”, ha affermato Margaret Mitchell, capo scienziata di etica alla startup AI Hugging Face.
“Da quello che so della cultura tecnologica, non è proprio così”, ha detto.
Alcuni hanno chiesto leggi sulla divulgazione per costringere i fornitori di intelligenza artificiale ad aprire i propri sistemi a un maggiore controllo da parte di terzi. Ma con i sistemi di intelligenza artificiale costruiti su modelli precedenti, non sarà facile fornire una maggiore trasparenza dopo il fatto.
“Spetterà davvero ai governi decidere se questo significa che devi cestinare tutto il lavoro che hai fatto o no”, ha detto Mitchell. “Certo, immagino che almeno negli Stati Uniti, il le decisioni si sposteranno verso le corporazioni e sosterranno il fatto che è già stato fatto. Avrebbe conseguenze così enormi se tutte queste aziende dovessero essenzialmente cestinare tutto questo lavoro e ricominciare da capo.
Mentre giovedì la Casa Bianca ha segnalato un approccio collaborativo con l’industria, le aziende che costruiscono o utilizzano l’intelligenza artificiale stanno anche affrontando un controllo approfondito da parte di agenzie statunitensi come la Federal Trade Commission, che applica le leggi sulla protezione dei consumatori e antitrust.
Le aziende devono anche affrontare regole potenzialmente più severe nell’Unione Europea, dove i negoziatori stanno apportando gli ultimi ritocchi alle normative sull’IA che potrebbero portare il blocco di 27 nazioni in prima linea nella spinta globale per stabilire standard per la tecnologia.
Quando l’UE ha elaborato per la prima volta la sua proposta di norme sull’IA nel 2021, l’attenzione si è concentrata sul controllo delle applicazioni ad alto rischio che minacciano la sicurezza o i diritti delle persone, come la scansione facciale in tempo reale o i sistemi governativi di punteggio sociale, che giudicano le persone in base al loro comportamento. I chatbot sono stati appena menzionati.
Ma riflettendo la velocità con cui si è sviluppata la tecnologia AI, i negoziatori a Bruxelles si sono affrettati ad aggiornare le loro proposte per tenere conto dei sistemi AI generici come quelli costruiti da OpenAI. Le disposizioni aggiunte al disegno di legge richiederebbero ai cosiddetti modelli di intelligenza artificiale di base di divulgare il materiale protetto da copyright utilizzato per addestrare i sistemi, secondo una recente bozza parziale della legislazione ottenuta da The Associated Press.
Una commissione del Parlamento europeo dovrebbe votare la prossima settimana sul disegno di legge, ma potrebbero passare anni prima che la legge sull’IA entri in vigore.
Altrove in Europa, l’Italia ha temporaneamente vietato ChatGPT per una violazione delle rigide norme europee sulla privacy, e giovedì l’autorità britannica di vigilanza sulla concorrenza ha dichiarato che sta aprendo una revisione del mercato dell’intelligenza artificiale.
Negli Stati Uniti, sottoporre i sistemi di intelligenza artificiale all’ispezione pubblica alla conferenza degli hacker DEF CON potrebbe essere un nuovo modo per testare i rischi, anche se probabilmente non così approfondito come un audit prolungato, ha affermato Heather Frase, un membro anziano del Center for Security and Tecnologia emergente.
Insieme a Google, Microsoft, OpenAI e Anthropic, le aziende che secondo la Casa Bianca hanno accettato di partecipare includono Hugging Face, il produttore di chip Nvidia e Stability AI, noto per il suo generatore di immagini Stable Diffusion.
“Questo sarebbe un modo per persone molto abili e creative di farlo in una sorta di grande esplosione”, ha detto Frase.
Image:Getty Images