Le opinioni espresse in questo articolo sono quelle dell’autore e non rappresentano in alcun modo la posizione editoriale di Euronews.
I nostri governi devono essere disposti a investire i propri soldi, garantendo che gli usi statali dell’intelligenza artificiale siano soggetti alle stesse regole e requisiti ragionevoli di qualsiasi altro sistema di intelligenza artificiale, scrive Ella Jakubowska.
Le promesse di risolvere i maggiori problemi della società, così come le affermazioni sul rischio di estinzione umana, sembrano essere gli argomenti più caldi sull’intelligenza artificiale che dominano i titoli dei giornali.
Ma questa attenzione verso un futuro lontano e promesso spesso distoglie l’attenzione dai rischi reali e presenti.
Uno dei problemi che abbiamo pericolosamente trascurato è che l’uso dei sistemi di intelligenza artificiale amplierà il già vasto squilibrio di potere tra stati e persone.
In quanto soggetti dell’uso delle tecnologie di intelligenza artificiale da parte della polizia e di altre autorità, questo dovrebbe preoccupare ognuno di noi. L’uso in rapida crescita dei sistemi di intelligenza artificiale nei contesti di polizia e di frontiera, di welfare e di istruzione sta trasformando la pubblica amministrazione e gli spazi pubblici al di là di ogni riconoscimento.
È giunto il momento di applicare norme procedurali e garanzie consolidate al contesto dell’IA. Le affermazioni secondo cui una “eccessiva regolamentazione” “ucciderà” l’innovazione sono una falsa pista, che distrae dal fatto che il controllo già sproporzionato del governo – e delle aziende – sulle nostre vite sarà consolidato se non riusciamo ad applicare gli stessi controlli ed equilibri ai sistemi di intelligenza artificiale che facciamo a tutti gli altri ambiti della vita.
Eppure i governi dell’UE stanno reagendo bruscamente, tentando di svuotare ogni significato dei tentativi legislativi di salvaguardare le persone dagli usi più dannosi dell’IA.
La legge europea sull’intelligenza artificiale è quasi giunta al termine
Nell’UE, l’attesissimo AI Act sta raggiungendo la fase finale dei negoziati. Uno dei principi chiave di questo disegno di legge è sempre stato che le persone e le società devono poter “fidarsi” dell’uso dei sistemi di intelligenza artificiale, in particolare sapendo che i sistemi rischiosi sono adeguatamente regolamentati e che i sistemi estremamente rischiosi sono vietati.
Gli attivisti per i diritti civili hanno sostenuto che le pratiche invasive e manipolative come il riconoscimento facciale pubblico e la polizia predittiva devono essere completamente vietate. La sorveglianza biometrica di massa delle proteste, delle vie commerciali, dei parchi e di altri spazi pubblici non può essere accettata in una società libera.
Tuttavia, i tentativi del Parlamento europeo di impedire ai governi di utilizzare i sistemi di intelligenza artificiale in questo modo vengono ostacolati da almeno ventisei governi degli Stati membri dell’UE.
Questi Stati membri stanno dando priorità alla convenienza, e persino agli obiettivi di austerità, rispetto a controlli ed equilibri adeguati che ci proteggerebbero dall’essere danneggiati da sistemi di intelligenza artificiale rischiosi.
L’argomentazione alla base dei governi dell’UE è che dobbiamo fidarci dell’utilizzo di questi sistemi in modo da mantenerci al sicuro. Hanno sostenuto che i divieti sono uno strumento troppo ottuso e che le garanzie sono sufficienti per scongiurare gli abusi.
La fiducia nell’intelligenza artificiale della polizia deve essere guadagnata
Tuttavia, quando si tratta di altri usi statali dell’IA, la narrazione non potrebbe essere più diversa.
Gli stessi governi che ci chiedono di fidarci di loro per utilizzare il riconoscimento facciale pubblico e la polizia predittiva in modo “sicuro” sono gli stessi che sostengono che non dovrebbero seguire le regole dell’IA quando si tratta degli usi statali più pericolosi dell’IA – come l’uso dell’intelligenza artificiale da parte della polizia e delle autorità competenti in materia di immigrazione.
Questi sono proprio i casi in cui abbiamo più bisogno di trasparenza e responsabilità. Le tecnologie digitali non cambiano il fatto che, per operare con il consenso, gli stati si affidano alla volontà e alla fiducia delle persone che governano.
Ma come possiamo avere fiducia che i nostri governi utilizzino in modo sicuro i sistemi di intelligenza artificiale quando si rifiutano di seguire qualsiasi regola che ci protegga dal danno che questa tecnologia potenzialmente pericolosa può causare?
Gli stati dell’UE non guadagneranno la fiducia delle persone mantenendo nell’ombra il loro uso delle tecnologie di intelligenza artificiale, rifiutando i controlli che garantiscono una progettazione sicura dei sistemi, né consentendo accordi senza scrupoli con le società di intelligenza artificiale affamate di profitto.
L’opacità e la tecnocrazia del settore dell’intelligenza artificiale rendono ancora più importante che mai che al pubblico venga fornita una visione ragionevole di come i nostri governi utilizzano questi sistemi.
Senza questa trasparenza, rischiamo di avere sistemi di intelligenza artificiale che esacerbano modelli discriminatori e dannosi, intrappolando le persone in un circolo vizioso di false accuse e processi tramite algoritmo.
Vietando gli usi più pericolosi
Nonostante le affermazioni di funzionari governativi aggressivi e fornitori di sistemi di intelligenza artificiale, i divieti su usi inaccettabilmente dannosi dei sistemi di intelligenza artificiale non sono uno strumento brusco.
In termini di diritti umani, parliamo di uno spettro di garanzie: da garanzie più minime per sistemi meno rischiosi, fino a un divieto totale per quando sappiamo che qualcosa semplicemente non è compatibile con una società giusta.
La realtà è che solo un numero molto limitato di casi d’uso ben definiti dell’IA è sul tavolo per un divieto a livello europeo nella legge sull’IA. Anche in questo caso, gli Stati membri sembrano disposti a fare eccezioni.
Prendiamo il riconoscimento facciale pubblico: secondo la bozza originale, solo l’uso di sistemi in “tempo reale”, “a distanza”, da parte della polizia e in “spazi accessibili al pubblico” sarebbe oggetto di divieto.
Ritardare l’abbinamento di un’ora, farlo in un chiosco o da un’autorità amministrativa, o qualsiasi altra serie di eccezioni, e non sarebbe più vietato.
Gruppi della società civile hanno sostenuto, tuttavia, che la tutela dei diritti alla privacy, alla dignità, alla libera espressione e all’uguaglianza richiede un divieto totale della sorveglianza di massa e degli usi arbitrari dei sistemi biometrici, nonché controlli rigorosi su altri usi. I governi dell’UE, tuttavia, stanno spingendo per garanzie così deboli da risultare prive di significato.
Il problema del doppio pensiero
Il doppio pensiero dei governi dell’UE su questi temi tradisce la mancanza di sostanza delle loro argomentazioni.
Il recente ordine esecutivo statunitense sull’IA, ad esempio, ha dimostrato che è effettivamente possibile includere le forze dell’ordine e le agenzie di sicurezza nazionale nell’ambito delle norme sull’IA.
I nostri governi devono essere disposti a investire i propri soldi, garantendo che gli usi statali dell’intelligenza artificiale siano soggetti alle stesse regole e requisiti ragionevoli di qualsiasi altro sistema di intelligenza artificiale.
E nel piccolo numero di casi in cui l’uso dell’intelligenza artificiale si è dimostrato semplicemente troppo dannoso per essere reso sicuro, abbiamo bisogno di divieti.
Senza questo, non potremo avere fiducia che la legge sull’IA dell’UE dia veramente priorità alle persone e ai diritti.
Ella Jakubowska è Senior Policy Advisor presso European Digital Rights (EDRi), una rete collettiva di organizzazioni no-profit, esperti, sostenitori e accademici che lavorano per difendere e promuovere i diritti digitali in tutto il continente.
Noi di Euronews crediamo che tutte le opinioni siano importanti. Contattaci a view@euronews.com per inviare proposte o contributi e prendere parte alla conversazione.
Image:Getty Images