Una commissione del Parlamento europeo ha votato per rafforzare la sua proposta legislativa in vista del voto finale di giugno.
La rapida evoluzione dell’intelligenza artificiale, o AI, ha affascinato milioni di persone con la sua capacità di comporre musica, scrivere saggi e imitare perfettamente la voce umana.
Ma ha anche sollevato timori sulla sua capacità di produrre fake news convincenti e di manipolare l’opinione pubblica.
Ecco perché l’Unione Europea sta correndo per elaborare regole per regolamentarlo in un disegno di legge ambizioso chiamato AI Act.
Giovedì, le principali commissioni del Parlamento europeo hanno dato il via libera al disegno di legge, aprendo la strada a un voto in plenaria a metà giugno.
Quindi, in cosa consiste questo AI Act e quali sono le implicazioni per i cittadini europei e i giganti della tecnologia?
Quattro livelli di rischio
Il disegno di legge classificherà i sistemi di intelligenza artificiale in base a quattro livelli di rischio: da minimo a inaccettabile.
Un livello inaccettabile significa che un uso particolare dell’IA è vietato; ad esempio, il sistema di credito sociale in Cina, dove i governi locali classificano i cittadini “buoni” e “cattivi”.
Altri usi inaccettabili includono l’identificazione biometrica in tempo reale negli spazi pubblici, dove l’intelligenza artificiale scansiona il tuo viso e poi ti identifica automaticamente.
Anche i sistemi di intelligenza artificiale utilizzati in categorie ad alto rischio come l’occupazione e l’istruzione, che influenzerebbero il corso della vita di una persona, dovranno affrontare requisiti severi come essere più trasparenti e utilizzare dati accurati.
Le violazioni comporteranno multe fino al 6% del fatturato annuo globale di un’azienda.
Quali sono i problemi principali che devono affrontare i legislatori dell’UE?
Una delle questioni più importanti è come definire cosa sia l’IA.
“Da un lato, devono regolamentare determinati danni e rischi, e dall’altro devono stare attenti a non soffocare l’innovazione”, ha detto a Euronews Johann Laux, un esperto di regolamentazione dell’IA.
“Se definisci l’intelligenza artificiale in modo troppo restrittivo, rischi di perdere la regolamentazione di alcuni danni. Se la definisci in modo troppo ampio, corri il rischio di essere eccessivamente inclusivo e di soffocare l’innovazione”.
E poiché la tecnologia si sta sviluppando rapidamente, un’altra preoccupazione che viene spesso sollevata è se l’IA Act sarà ancora efficace tra un paio d’anni.
“Molti avvocati là fuori lavorano con leggi e codici che a volte hanno anche centinaia di anni”, ha spiegato Dragos Tudorache, un eurodeputato rumeno che ha co-sponsorizzato il disegno di legge.
“E alla fine, il segreto è che devi sempre cercare di catturare l’essenza del tipo di relazione o fenomeno economico o sociale che stai regolando quando scrivi la legge fino al punto in cui supererebbe la prova di tempo in cinque, in dieci e 15 e 20 anni.
“Questo è quello che abbiamo cercato di fare, che indipendentemente da come cambierà la tecnologia, quel sistema centrale di valori e obblighi rimarrà invariato”.
Ha detto a Euronews che parti del disegno di legge che potrebbero evolversi nel tempo sono state inserite nel testo che può essere adattato con la comitatologia, il processo di attuazione o modifica delle leggi dell’UE attraverso i comitati presieduti dalla Commissione europea.
Qual è il prossimo?
L’approvazione finale è prevista entro la fine dell’anno, o al più tardi all’inizio del 2024, seguita da un periodo di grazia per l’adeguamento delle aziende e delle organizzazioni, spesso di circa due anni.
Per ulteriori informazioni su questa storia, guarda il nostro rapporto da The Cube nel lettore multimediale in alto.
Image:Getty Images