Le autorità di regolamentazione di tutta Europa stanno esaminando se ChatGPT è conforme alle normative sulla privacy dopo che l’Italia è diventata il primo paese occidentale a bloccare il popolare chatbot alimentato dall’intelligenza artificiale (AI).
Il garante italiano per la protezione dei dati ha detto la scorsa settimana che lo è aprire un’inchiesta contro OpenAI, la società dietro il popolarissimo chatbot, citando preoccupazioni sulla privacy dei dati dopo che ChatGPT ha subito una violazione dei dati che coinvolge conversazioni degli utenti e informazioni di pagamento.
ChatGPT può praticamente rispondere a qualsiasi domanda, superare esami e persino codificare un intero sito Web per te.
Centinaia di milioni di persone hanno utilizzato ChatGPT dal suo lancio nel novembre 2022, rendendola l’applicazione consumer in più rapida crescita nella storia, secondo uno studio di UBS.
Ma ci sono state crescenti preoccupazioni sui potenziali rischi dell’IA, inclusa la sua minaccia di cancellare molti posti di lavoro e anche di diffondere disinformazione.
Il mese scorso, anche figure di spicco della tecnologia, incluso il boss di Twitter Elon Musk ha chiesto una sosta allo sviluppo di questi tipi di sistemi di intelligenza artificiale tra timori che la corsa per svilupparli sia andata fuori controllo.
Presto altri paesi seguiranno l’esempio e vieteranno ChatGPT?
Dopo la decisione dell’Italia di limitare l’accesso al chatbot, l’Organizzazione europea dei consumatori (BEUC) ha invitato tutte le autorità a indagare su tutti i principali chatbot di intelligenza artificiale.
ChatGPT è già inaccessibile in un certo numero di paesi, tra cui Cina, Iran, Corea del Nord e Russia.
“I consumatori non sono pronti per questa tecnologia. Non si rendono conto di quanto possa essere manipolativa e ingannevole. Non si rendono conto che le informazioni che ottengono potrebbero essere sbagliate”, ha affermato Ursula Pachl, vicedirettore del BEUC.
“Penso che questo incidente con ChatGPT sia molto importante. È una specie di campanello d’allarme per l’Unione Europea perché anche se le istituzioni europee hanno lavorato a un AI Act, non sarà applicabile per altri quattro anni. E abbiamo visto quanto velocemente si stanno sviluppando questi tipi di sistemi”, ha detto a Euronews.
Altri regolatori in Europa hanno ora iniziato a prestare maggiore attenzione a ChatGPT.
La Commissione irlandese per la protezione dei dati ha affermato che “sta seguendo il regolatore italiano per comprendere le basi della loro azione”, aggiungendo che “si coordinerà con tutte le autorità per la protezione dei dati dell’UE in relazione a questa questione”.
Il regolatore francese della privacy dei dati, CNIL, ha dichiarato che sta indagando dopo aver ricevuto due reclami su ChatGPT. I regolatori hanno anche contattato le loro controparti italiane per saperne di più sulla base del divieto.
In un post sul blog di questa settimana, l’ufficio del Commissario per le informazioni del Regno Unito ha avvertito che gli sviluppatori di intelligenza artificiale lo hanno fatto “niente scuse” per aver sbagliato la privacy dei dati e che coloro che non rispettano la legge sulla protezione dei dati dovranno affrontare le conseguenze.
In un’apparente risposta alle preoccupazioni, mercoledì OpenAI ha pubblicato un post sul blog che delinea il suo approccio alla sicurezza dell’IA.
La società ha affermato che lavora per rimuovere le informazioni personali dai dati di formazione ove possibile, perfeziona i suoi modelli per rifiutare le richieste di informazioni personali di privati e agisce sulle richieste di eliminare le informazioni personali dai suoi sistemi.
L’UE prepara la sua legge sull’IA
La Commissione europea sta attualmente discutendo il la prima legislazione al mondo sull’intelligenza artificiale chiamata legge sull’IA.
Ma sembra che potrebbe non essere incline a vietare i sistemi di intelligenza artificiale, secondo il vicepresidente esecutivo della Commissione europea, Margrethe Vestager.
“Non importa quale tecnologia usiamo, dobbiamo continuare a promuovere le nostre libertà e proteggere i nostri diritti”, ha postato su Twitter. “Ecco perché non regoliamo le tecnologie AI, regoliamo gli usi dell’IA. Non buttiamo via in pochi anni ciò che ha richiesto decenni per essere costruito”.
Anche il ministro digitale francese Jean-Noël Barrot si è opposto al divieto di ChatGPT. In un’intervista con La Tribunaha detto che pensa che il servizio non rispetti le leggi sulla privacy dell’UE, ma che avrebbe più senso cercare di “padroneggiare” le nuove tecnologie e regolarle piuttosto che provare a vietarle del tutto.
La Germania, tuttavia, potrebbe seguire le orme dell’Italia bloccando ChatGPT per problemi di sicurezza dei dati, ha dichiarato il commissario tedesco per la protezione dei dati al quotidiano Handelsblatt.
Dan Morgan, direttore per gli affari governativi in Europa presso il provider di valutazione della sicurezza informatica SecurityScorecard, ha dichiarato a Euronews che questa mossa segnala l’importanza della conformità normativa per aziende come OpenAI in Europa.
“Penso che le chiare implicazioni di ciò siano che non puoi evitare la regolamentazione se vuoi operare nell’UE”, ha affermato.
“Le aziende devono dare la priorità alla protezione dei dati personali e conformarsi. Non importa quanto sia importante il prodotto, sai, la conformità alla normativa in Europa non è un optional”.
Il watchdog italiano ha affermato che la società dietro ChatGPT ha 20 giorni per affrontare i problemi di protezione dei dati o pagare una multa di 20 milioni di euro o fino al 4% dei ricavi annuali.
Il CEO dell’azienda, Sam Altman, detto su Twitter che OpenAI si rimetteva al “governo italiano” sulla questione.
“L’Italia è uno dei miei paesi preferiti e non vedo l’ora di tornarci presto”, ha aggiunto.
Per ulteriori informazioni su questa storia, guarda il nostro rapporto da The Cube nel lettore multimediale in alto.
Image:Getty Images