Per la prima volta a livello mondiale, l’UE ha approvato una legislazione per regolamentare l’intelligenza artificiale ma mentre alcuni sostengono che non sia sufficientemente ampia, altri sostengono che potrebbe danneggiare le aziende con “vincoli aggiuntivi”.
I politici europei si sono affrettati a elaborare regole e avvertimenti per le aziende tecnologiche dal lancio di ChatGPT e questa settimana è stata fondamentale nello stabilire le regole dell’intelligenza artificiale (AI) dell’UE.
Mercoledì il Parlamento europeo approvato l’Artificial Intelligence Act, che adotta un approccio basato sul rischio per garantire che le aziende rilascino prodotti conformi alla legge prima che siano resi disponibili al pubblico.
Il giorno dopo, la Commissione Europea ha chiesto a Bing, Facebook, Google Search, Instagram, Snapchat, TikTok, YouTube e X, nell’ambito di una legislazione separata, di dettagliare come stanno frenando i rischi dell’intelligenza artificiale generativa.
Mentre l’UE è per lo più preoccupata per le allucinazioni legate all’intelligenza artificiale (quando i modelli commettono errori e inventano cose), la diffusione virale di deepfake e la manipolazione automatizzata dell’intelligenza artificiale che potrebbe fuorviare gli elettori alle elezioni, la comunità tecnologica ha le sue lamentele con la legislazione mentre alcuni ricercatori dicono che non è abbastanza lontano.
Monopoli tecnologici
Mentre Bruxelles merita “vero merito” per essere stata la prima giurisdizione a livello globale ad approvare una regolamentazione che mitiga i numerosi rischi dell’intelligenza artificiale, ci sono diversi problemi con l’accordo finale, ha affermato Max von Thun, direttore europeo dell’Open Markets Institute.
Ci sono “lacune significative per le autorità pubbliche” e “una regolamentazione relativamente debole dei modelli di fondazione più grandi che rappresentano i danni maggiori”, ha detto a Euronews Next.
I modelli di base sono modelli di machine learning addestrati sui dati e che possono essere utilizzati per eseguire una serie di attività, come ad esempio scrivere una poesia. ChatGPT è un modello fondamentale.
Tuttavia, la più grande preoccupazione di von Thun riguarda i monopoli tecnologici.
“L’AI Act non è in grado di affrontare la minaccia numero uno che l’intelligenza artificiale rappresenta attualmente: il suo ruolo nell’aumentare e rafforzare il potere estremo che alcune aziende tecnologiche dominanti già hanno nelle nostre vite personali, nelle nostre economie e nelle nostre democrazie”, ha affermato.
Allo stesso modo, ha affermato che la Commissione europea dovrebbe diffidare degli abusi monopolistici nell’ecosistema dell’intelligenza artificiale.
“L’UE dovrebbe capire che la portata dei rischi posti dall’intelligenza artificiale è indissolubilmente legata alla portata e al potere delle aziende dominanti che sviluppano e implementano queste tecnologie. Non si può affrontare con successo il primo finché non si affronta il secondo”, ha detto von Thun.
La minaccia dei monopoli dell’intelligenza artificiale è venuta alla ribalta il mese scorso dopo che è emerso che la start-up francese Mistral AI stava collaborando con Microsoft.
Per alcuni nell’UE è stato uno shock dal momento che la Francia aveva spinto per concessioni all’AI Act per aziende open source come Mistral.
‘Momento storico’
Ma diverse start-up hanno accolto favorevolmente la chiarezza apportata dal nuovo regolamento.
“L’adozione definitiva dell’EU AI Act da parte del Parlamento europeo è sia un momento storico che un sollievo”, ha affermato Alex Combessie, co-fondatore e CEO della società francese di intelligenza artificiale open source Giskard.
“Sebbene la legge imponga ulteriori vincoli e regole agli sviluppatori di sistemi di intelligenza artificiale e modelli di base ad alto rischio, considerati ‘rischi sistemici’, siamo fiduciosi che questi controlli ed equilibri possano essere implementati in modo efficace”, ha detto a Euronews Next.
“Questo momento storico apre la strada a un futuro in cui l’intelligenza artificiale verrà sfruttata in modo responsabile, promuovendo la fiducia e garantendo la sicurezza di tutti”, ha affermato.
La normativa opera distinguendo i rischi posti dai modelli di fondazione, che si basano sulla potenza di calcolo che li addestra. I prodotti di intelligenza artificiale che superano la soglia di potenza di calcolo sono regolamentati in modo più rigoroso.
La classificazione è vista come un punto di partenza e, come altre definizioni, può essere rivista dalla Commissione.
‘Bene pubblico’
Ma non tutti sono d’accordo con questa categorizzazione.
“Dal mio punto di vista, i sistemi di intelligenza artificiale utilizzati nello spazio informativo dovrebbero essere classificati come ad alto rischio, richiedendo loro di aderire a regole più severe, il che non è esplicitamente il caso nella legge europea sull’intelligenza artificiale adottata”, ha affermato Katharina Zügel, policy manager al Forum su Informazione e Democrazia.
“La Commissione, che ha la capacità di modificare i casi d’uso dei sistemi ad alto rischio, potrebbe menzionare esplicitamente i sistemi di intelligenza artificiale utilizzati nello spazio dell’informazione come ad alto rischio, tenendo conto del loro impatto sui diritti fondamentali”, ha detto a Euronews Next.
“Le aziende private non possono essere le uniche a guidare il nostro futuro comune. L’intelligenza artificiale deve essere un bene pubblico”, ha aggiunto.
Ma altri sostengono che anche le imprese debbano dire la loro ed essere in grado di collaborare con l’UE.
“È fondamentale che l’UE sfrutti il dinamismo del settore privato, che sarà la forza trainante del futuro dell’IA. Ottenere questo risultato sarà importante per rendere l’Europa più competitiva e attraente per gli investitori”, ha affermato Julie Linn Teigland, Managing Partner di EY per Europa, Medio Oriente, India e Africa (EMEIA).
Tuttavia, ha affermato che le imprese nell’UE e oltre devono essere proattive e prepararsi all’entrata in vigore della legge, il che significa “adottare misure per garantire di avere un inventario aggiornato dei sistemi di intelligenza artificiale che stanno sviluppando o implementando, e determinare la loro posizione nella catena del valore dell’IA per comprendere le loro responsabilità legali”.
‘Gusto agrodolce’
Per le start-up e le piccole e medie imprese ciò potrebbe significare molto più lavoro.
“Questa decisione ha un sapore agrodolce”, ha affermato Marianne Tordeux Bitker, responsabile delle relazioni pubbliche di France Digitale.
“Sebbene la legge sull’intelligenza artificiale risponda a un’importante sfida in termini di trasparenza ed etica, crea tuttavia obblighi sostanziali per tutte le aziende che utilizzano o sviluppano l’intelligenza artificiale, nonostante alcuni adeguamenti previsti per le startup e le PMI, in particolare attraverso sandbox normativi.
“Temiamo che il testo creerà semplicemente ulteriori barriere normative che andranno a beneficio della concorrenza americana e cinese e ridurranno le nostre opportunità per far emergere i campioni europei dell’intelligenza artificiale”, ha aggiunto.
“Implementazione efficace”
Ma anche se l’AI Act è una cosa fatta, la sua attuazione rappresenta la prossima sfida.
“Ora l’attenzione si sposta sulla sua effettiva attuazione e applicazione. Ciò richiede anche una rinnovata attenzione alla legislazione complementare”, ha detto a Euronews Next Risto Uuk, responsabile della ricerca europea presso l’organizzazione no-profit Future of Life Institute.
Tale legislazione complementare include la Direttiva sulla responsabilità dell’IA, intesa a supportare le richieste di responsabilità per danni causati da prodotti e servizi abilitati all’intelligenza artificiale, e l’Ufficio AI dell’UE, che mira a semplificare l’applicazione delle norme.
“Gli aspetti fondamentali per garantire che la legge valga la carta su cui è scritta sono che l’Ufficio AI disponga delle risorse per svolgere i compiti che gli sono stati assegnati e che i codici di condotta per l’IA a scopo generale siano ben redatti con l’inclusione delle norme civili società”, ha detto.
Image:Getty Images