Il mondo potrebbe non essere “così lontano dagli strumenti di intelligenza artificiale (AI) potenzialmente spaventosi”, ha affermato il CEO di OpenAI nel fine settimana.
Sam Altman, la cui azienda ha creato il popolarissimo ChatGPT, ha espresso le sue opinioni sullo stato attuale e futuro dell’IA in un thread su Twitter, in seguito all’esplosione dell’interesse pubblico per gli strumenti di intelligenza artificiale generativa.
Alcuni esperti, tuttavia, hanno detto a Euronews Next che invece di applicazioni AI “potenzialmente spaventose” dietro l’angolo, stiamo attualmente vivendo in un “presente distopico” grazie all’uso dell’IA in contesti sensibili che hanno un impatto reale sulle opportunità delle persone .
Altman si è espresso dopo l’integrazione di ChatGPT nel motore di ricerca Bing di Microsoft, che un certo numero di esperti di tecnologia e giornalisti hanno messo alla prova, con alcuni risultati terrificanti.
Durante una chiacchierata di due ore con un editorialista tecnico del New York Times, Bing ha professato il suo amore per lui, ha cercato di rompere il suo matrimonio e gli ha detto “Voglio essere vivo”.
Altri hanno riferito di minacce di violenza e ricatti provenienti dal chatbot, che è ancora in fase di test.
Altman ha affermato nel suo thread su Twitter che “l’adattamento a un mondo profondamente integrato con gli strumenti di intelligenza artificiale avverrà probabilmente abbastanza rapidamente”, pur ammettendo che gli strumenti erano “ancora in qualche modo rotti”.
“La regolamentazione sarà fondamentale e ci vorrà del tempo per capirlo”, ha affermato, aggiungendo che “sebbene gli strumenti di intelligenza artificiale della generazione attuale non siano molto spaventosi, penso che potenzialmente non siamo così lontani da quelli potenzialmente spaventosi”.
Quindi, cosa ne pensano gli esperti di etica dell’IA – le persone che stanno pensando al futuro e stanno cercando di plasmare la futura integrazione dell’IA nella nostra vita quotidiana – di questo?
“Il presente distopico”
Mentre Altman afferma che “gli strumenti di intelligenza artificiale della generazione attuale non sono molto spaventosi”, alcuni esperti non sono d’accordo.
Sarah Myers West, amministratore delegato dell’Istituto AI Now, ha dichiarato a Euronews Next che “in molti sensi, è già dove siamo”, con i sistemi di intelligenza artificiale già utilizzati per esacerbare “modelli di disuguaglianza di lunga data”.
AI Now è un istituto di ricerca americano che studia le implicazioni sociali dell’intelligenza artificiale, ponendoli in prima linea nel pensare alle sfide che l’IA pone alla società.
“Sono utilizzati in processi decisionali molto delicati, spesso senza minima supervisione o responsabilità. Quindi penso che stiamo già assistendo a questo svolgersi intorno a noi. Ed è esattamente ciò che sta animando la spinta a guardare agli approcci politici per modellare il direzione che prende”, ha detto Myers West.
Questi delicati processi decisionali includono processi di assunzione e istruzione.
“Un’area, proprio come un esempio di molti, è l’uso dell’emozione o del riconoscimento degli affetti. Che è essenzialmente l’affermazione che puoi dedurre gli stati emotivi interiori o gli stati mentali delle persone dalle loro caratteristiche facciali, e che ci sono particolari sistemi di intelligenza artificiale che possono leggere gli stati emotivi delle persone e persino i tratti della loro personalità”, ha affermato Amba Kak, direttore esecutivo di AI Now.
Questi sistemi di intelligenza artificiale si basano su basi scientifiche che sono “traballanti nella migliore delle ipotesi” e “stanno effettivamente plasmando l’accesso delle persone alle opportunità in tempo reale”, ha aggiunto.
“Quindi, c’è un urgente bisogno di limitare questi sistemi”.
Kak e Myers West respingono entrambi l’idea di un futuro distopico, poiché per loro, in qualche modo, viviamo in un “presente distopico”.
“Ieri è il momento giusto per introdurre attriti in quel processo per ridistribuire quel potere”, sostiene Myers West.
“Diciamo che accettiamo che queste tecnologie siano una sorta di futuro inevitabile”, ha detto Kak.
“Penso che stiamo anche cedendo terreno al fatto che una manciata di aziende tecnologiche avrebbe essenzialmente un controllo e un potere enormi e ingiustificabili sulle società e sulla vita delle persone, e su come alla fine – e non penso che questo sia iperbolico per dire – anche l’autonomia che abbiamo di pensare, visto quanto gli algoritmi stanno modellando i nostri flussi di informazioni e tanti aspetti della nostra vita”.
Dire che l’intelligenza artificiale non è attualmente regolamentata, tuttavia, sarebbe un’idea sbagliata, ha spiegato Kak.
Mentre l’UE e gli Stati Uniti stanno elaborando i loro quadri normativi sull’IA, esistono già regolamenti indiretti.
I dati e le infrastrutture computazionali che costituiscono i componenti delle attuali tecnologie di intelligenza artificiale sono “già regolamentati a molti livelli diversi”, ad esempio con le leggi sulla protezione dei dati nell’UE.
Altri tipi di sistemi di intelligenza artificiale sono già regolamentati in molti paesi, in particolare per quanto riguarda il riconoscimento facciale e la biometria, ha aggiunto.
Regolamentazione significa la capacità di plasmare la direzione che queste tecnologie possono portarci, dice Kak, essendo “meno come una sorta di forza vincolante e più come una forza modellante in termini di come le tecnologie si sviluppano”.
Cosa sta arrivando in termini di regolamentazione e perché?
Secondo l’Osservatorio per le politiche sull’IA dell’Organizzazione per la cooperazione e lo sviluppo economico (OCSE), esistono già 69 paesi e territori con iniziative politiche in materia di intelligenza artificiale attive, ma soprattutto l’UE sta attualmente redigendo la propria legge sull’IA, che sarà la prima legge sull’intelligenza artificiale messo in atto da un importante regolatore.
Attualmente, la legge divide l’intelligenza artificiale in quattro categorie basate sul rischio, con quelle che presentano un rischio minimo o nullo per i cittadini, come i filtri antispam, che sono esentate dalle nuove regole.
Le applicazioni a rischio limitato includono cose come i chatbot e richiederanno trasparenza per garantire che gli utenti sappiano che stanno interagendo con un’intelligenza artificiale.
L’alto rischio potrebbe includere l’utilizzo dell’intelligenza artificiale per il riconoscimento facciale, questioni legali o l’ordinamento dei CV durante i processi di assunzione. Questi potrebbero causare danni o limitare le opportunità, quindi dovranno affrontare standard normativi più elevati.
L’intelligenza artificiale considerata un rischio inaccettabile – in altre parole, i sistemi che rappresentano una chiara minaccia per le persone – “saranno vietati”, secondo la Commissione europea.
Thierry Breton, commissario europeo per il mercato interno, ha recentemente affermato che l’improvviso aumento della popolarità di applicazioni come ChatGPT e i rischi associati sottolineano l’urgente necessità di stabilire regole.
Secondo Francesca Rossi, IBM Fellow e IBM AI Ethics Global Leader, “aziende, enti standard, organizzazioni della società civile, media, responsabili politici, tutti gli stakeholder dell’IA devono svolgere il loro ruolo complementare” per raggiungere l’obiettivo di garantire che l’IA sia affidabile e utilizzato responsabilmente.
“Sosteniamo la regolamentazione quando utilizza un approccio ‘preciso’ basato sul rischio per le applicazioni di intelligenza artificiale, piuttosto che la tecnologia di intelligenza artificiale: le applicazioni che sono più rischiose dovrebbero essere soggette a maggiori obblighi”, ha detto a Euronews Next.
“Sosteniamo anche gli obblighi di trasparenza che trasmettono le capacità e i limiti della tecnologia utilizzata”, ha aggiunto, osservando che questo è l’approccio che l’UE sta adottando con la sua legge sull’IA.
Sostiene un quadro etico dell’IA a livello aziendale presso IBM, un’azienda che sostiene la rapida trasformazione verso l’uso dell’IA nella società, “che comporta sempre domande, preoccupazioni e rischi da considerare e affrontare adeguatamente”.
“Alcuni anni fa non potevamo immaginare molte delle capacità che l’IA sta ora supportando nelle nostre vite personali e nelle operazioni di molte aziende”, ha affermato Rossi.
Come i rappresentanti dell’AI Now Institute, crede che “noi come società e individui” dobbiamo guidare la traiettoria dello sviluppo dell’IA “in modo che possa servire il progresso e i valori dell’uomo e del pianeta”.
L’intelligenza artificiale potrebbe “interrompere l’ordine sociale”
Uno dei timori particolari espressi da Kak e Myers West riguardo all’introduzione dei sistemi di intelligenza artificiale nella società era che gli impatti negativi o positivi non sarebbero stati distribuiti in modo uniforme.
“Sento che a volte potrebbe sembrare che tutti saranno ugualmente influenzati dagli aspetti negativi, dai danni della tecnologia, quando in realtà non è vero”, ha detto Kak.
“Le persone che costruiscono la tecnologia e le persone che abitano simili forme di privilegio, che si tratti di razza, privilegio, privilegio di classe, tutte queste cose, sembra che siano persone che difficilmente subiranno danni vedendo un algoritmo di suddivisione in livelli razzista. E quindi la domanda da porsi non è solo se l’IA gioverà all’umanità, ma per chi funzionerà e contro chi funzionerà?”
Questa è anche un’area di interesse per Joanna Bryson, professoressa di etica e tecnologia alla Hertie School of Governance di Berlino.
Per lei, il boom dell’intelligenza artificiale potrebbe rivelarsi un periodo di progresso tecnologico che “sconvolge l’attuale ordine sociale” lasciando indietro alcune persone.
“Penso che la società sia stabile solo quando produciamo quel tipo di contesti, in cui le persone hanno un’idea di dove appartengono e di come si inseriscono”, ha detto a Euronews Next.
“E sono orgogliosi del loro lavoro e sono disposti ad andare a competere per questo, e fanno abbastanza soldi per essere ragionevolmente stabili. E quindi quello che mi preoccupa davvero è che penso solo che probabilmente andremo attraverso questi periodi in cui la tecnologia sconvolge l’ordine sociale che avevamo”.
“A lungo termine, se non mantieni le persone felici, interessate, impegnate e in salute, e sei adeguatamente ben pagato e tutto il resto, non avrai una società sicura”.
Scrivendo sul suo blog alla fine del 2022, riguardo alla questione delle sue maggiori preoccupazioni sull’etica dell’IA, Bryson ha affermato che le maggiori sfide che coinvolgono l’IA riguardano la governance digitale.
“Stiamo usando la tecnologia in modo sicuro, giusto ed equo? Stiamo aiutando i cittadini, i residenti e i dipendenti a prosperare?” lei chiese.
Con l’UE che sta ancora elaborando la sua legge sull’IA prima di presentarla al Parlamento europeo alla fine di marzo, queste domande potrebbero rimanere senza risposta per qualche tempo.
Nel frattempo, Meyers West vuole sottolineare che “abbiamo enormi possibilità di plasmare la direzione in cui ci porterà il nostro futuro tecnologico”.
“Penso che sia davvero importante che queste conversazioni politiche procedano esattamente in questo senso, assicurando che funzionino nell’interesse del pubblico più ampio e non solo nell’immaginazione di coloro che le stanno costruendo e ne traggono profitto”, ha affermato.
Image:Getty Images