Un funzionario dell’UE ha affermato che le norme proposte che regolano l’intelligenza artificiale (AI) affronteranno le preoccupazioni sui rischi di prodotti come ChatGPT.
Thierry Breton, commissario europeo per il mercato interno, ha dichiarato a Reuters che l’improvviso aumento di popolarità di applicazioni come ChatGPT e i rischi associati sottolineano l’urgente necessità di stabilire regole.
“Come mostrato da ChatGPT, le soluzioni AI possono offrire grandi opportunità per aziende e cittadini, ma possono anche comportare rischi. Ecco perché abbiamo bisogno di un solido quadro normativo per garantire un’IA affidabile basata su dati di alta qualità”, ha detto a Reuters in commenti scritti. .
Erano i primi commenti ufficiali su ChatGPT da parte di un alto funzionario dell’UE. Breton e i suoi colleghi della Commissione stanno attualmente lavorando con il Consiglio e il Parlamento europeo su quello che sarà il primo quadro giuridico sull’IA.
Lanciato poco più di due mesi fa, ChatGPT ha inaugurato un’esplosione di interesse per l’intelligenza artificiale e per gli usi a cui può ora essere destinata.
Sviluppato da OpenAI, ChatGPT consente agli utenti di inserire prompt che possono quindi generare articoli, saggi, poesie e persino codice di computer.
Con ChatGPT classificata come l’app per consumatori in più rapida crescita nella storia, alcuni esperti hanno espresso il timore che i sistemi utilizzati da tali app possano essere utilizzati in modo improprio per plagio, frode e diffusione di disinformazione.
Microsoft ha rifiutato di commentare la dichiarazione di Breton. OpenAI – la cui app utilizza una tecnologia chiamata intelligenza artificiale generativa – non ha risposto immediatamente a una richiesta di commento.
OpenAI ha affermato sul suo sito Web che mira a produrre intelligenza artificiale che “va a vantaggio di tutta l’umanità” mentre tenta di costruire un’IA sicura e vantaggiosa.
Il primo quadro normativo AI
Secondo la bozza delle regole dell’UE, ChatGPT è considerato un sistema di intelligenza artificiale generico che può essere utilizzato per molteplici scopi, compresi quelli ad alto rischio come la selezione dei candidati per i lavori e il punteggio di credito.
Breton vuole che OpenAI collabori strettamente con gli sviluppatori a valle di sistemi di intelligenza artificiale ad alto rischio per consentire la loro conformità con la legge sull’IA proposta.
Il quadro normativo attualmente definisce quattro livelli di rischio nell’IA, il che sta causando inquietudine tra alcune aziende che temono che i loro prodotti vengano etichettati come ad alto rischio.
I quattro livelli sono:
- Rischio inaccettabile – qualsiasi sistema considerato una chiara minaccia per le persone “sarà vietato” secondo la Commissione, compreso “l’assegnazione di punteggi sociali da parte dei governi ai giocattoli che utilizzano l’assistenza vocale che incoraggia comportamenti pericolosi”.
- Alto rischio – si tratta di sistemi di IA all’interno di infrastrutture critiche come i trasporti, o all’interno di contesti educativi o lavorativi in cui l’esito di esami o domande di lavoro potrebbe essere determinato dall’IA. Anche i contesti di applicazione della legge che mettono a rischio i diritti fondamentali delle persone sono inclusi come ad alto rischio.
- Rischio limitato – Si tratta di sistemi con “obblighi specifici di trasparenza”, come un chatbot che si identifica come AI.
- Rischio minimo o nullo – La Commissione afferma che la “stragrande maggioranza” dei sistemi attualmente utilizzati nell’UE rientra in questa categoria e include videogiochi abilitati all’intelligenza artificiale e filtri antispam.
“Le persone dovrebbero essere informate che hanno a che fare con un chatbot e non con un essere umano”, ha detto Breton.
“La trasparenza è importante anche per quanto riguarda il rischio di parzialità e false informazioni”.
Essere in una categoria ad alto rischio porterebbe a requisiti di conformità più severi e costi più elevati, secondo i dirigenti di diverse società coinvolte nello sviluppo dell’intelligenza artificiale.
Un sondaggio condotto dall’ente di settore applicationAI ha mostrato che il 51% degli intervistati si aspetta un rallentamento delle proprie attività di sviluppo dell’IA a seguito dell’AI Act.
Le normative efficaci sull’IA dovrebbero concentrarsi sulle applicazioni ad alto rischio, ha scritto mercoledì il presidente di Microsoft Brad Smith in un post sul blog.
“Ci sono giorni in cui sono ottimista e momenti in cui sono pessimista su come l’umanità utilizzerà l’IA”, ha detto.
I modelli di intelligenza artificiale generativa devono essere addestrati su enormi quantità di testo o immagini per creare una risposta adeguata, il che può portare ad accuse di violazione del copyright.
Breton ha affermato che le prossime discussioni con i legislatori sulle regole dell’IA riguarderanno questi aspetti.
Image:Getty Images