Gli sviluppatori di intelligenza artificiale non hanno “alcuna scusa” per aver sbagliato la privacy dei dati, ha affermato uno dei capi dell’autorità di regolamentazione dei dati del Regno Unito, avvertendo coloro che non seguono la legge sulla protezione dei dati che dovranno affrontare delle conseguenze.
L’Information Commissioner’s Office (ICO) applica la protezione dei dati nel Regno Unito. Parlando in mezzo all’esplosione di interesse per l’IA generativa, in particolare per i modelli di linguaggio di grandi dimensioni come quello che alimenta ChatGPT di OpenAI, Stephen Almond, direttore esecutivo del rischio normativo dell’ICO, ha avvertito che gli LLM rappresentano un rischio per la sicurezza dei dati.
Scrivendo in un post sul blog, ha affermato che è tempo di “fare un passo indietro e riflettere su come vengono utilizzati i dati personali”.
Ha notato che Sam Altman, il CEO del creatore di ChatGPT OpenAI, ha dichiarato lui stesso le proprie preoccupazioni sui progressi dell’IA e su cosa potrebbero significare.
E facendo riferimento a una lettera pubblicata la scorsa settimana firmata da leader tecnologici ed esperti di intelligenza artificiale che chiedeva una pausa immediata allo sviluppo dell’IA, Almond ha raccontato una conversazione che ha avuto con lo stesso ChatGPT.
“L’IA generativa, come qualsiasi altra tecnologia, ha il potenziale per mettere a rischio la privacy dei dati se non utilizzata in modo responsabile”, ha scritto il chatbot.
“E non ci vuole troppa immaginazione per vedere il potenziale per un’azienda di danneggiare rapidamente una relazione guadagnata duramente con i clienti attraverso uno scarso uso dell’IA generativa”, ha affermato Almond.
Ha aggiunto che mentre la tecnologia potrebbe essere nuova, i principi della legge sulla protezione dei dati sono gli stessi.
8 domande per gli sviluppatori di intelligenza artificiale
“Le organizzazioni che sviluppano o utilizzano l’IA generativa dovrebbero considerare i propri obblighi di protezione dei dati fin dall’inizio, adottando un approccio di protezione dei dati fin dalla progettazione e per impostazione predefinita”, ha affermato, aggiungendo che questo “non è facoltativo… è la legge”.
Ha quindi elencato otto domande che gli sviluppatori di intelligenza artificiale che utilizzano i dati personali devono porsi, aggiungendo che l’ICO chiederà loro e agirà laddove le organizzazioni non rispettano la legge.
Le domande sono:
- Qual è la tua base legale per il trattamento dei dati personali?
- Sei titolare, contitolare o responsabile del trattamento?
- Hai preparato una valutazione d’impatto sulla protezione dei dati (DPIA)?
- Come garantirete la trasparenza?
- Come mitigherai i rischi per la sicurezza?
- Come limiterai le elaborazioni non necessarie?
- In che modo ottempererai alle richieste relative ai diritti individuali?
- Utilizzerai l’IA generativa per prendere decisioni esclusivamente automatizzate?
“Non ci possono davvero essere scuse per sbagliare le implicazioni sulla privacy dell’IA generativa”, ha affermato, avvertendo che la sua organizzazione “lavorerà sodo” per garantire che le organizzazioni facciano le cose per bene.
Image:Getty Images