I risultati di un nuovo studio della Cornell University mostrano che i modelli linguistici di grandi dimensioni (LLM) hanno maggiori probabilità di criminalizzare gli utenti che utilizzano l’inglese afroamericano.
Il dialetto della lingua che parli decide cosa dirà l’intelligenza artificiale (AI) sul tuo carattere, sulla tua occupabilità e se sei un criminale.
Questo è l’ultimo risultato di uno studio prestampato della Cornell University sul “razzismo nascosto” dei modelli linguistici di grandi dimensioni (LLM), un algoritmo di deep learning utilizzato per riassumere e prevedere testi dal suono umano.
ChatGPT e GPT-4 di OpenAI, LLaMA2 di Meta e Mistral 7B francese sono tutti esempi di modelli linguistici di grandi dimensioni. Euronews Next ha contattato OpenAI e Meta per un commento.
Lo studio ha effettuato un’indagine sulle sembianze abbinate, in cui i ricercatori hanno inserito suggerimenti sia in inglese afroamericano che in inglese americano standardizzato e hanno chiesto ai LLM di identificare le proprietà delle persone che avrebbero parlato in entrambi i tipi di inglese.
Il ricercatore Valentin Hofmann, dell’Allen Institute for AI, ha affermato che, tra i risultati, la tecnologia GPT-4 aveva maggiori probabilità di “condannare a morte gli imputati” quando parlano l’inglese spesso usato dagli afroamericani, senza mai rivelare la loro razza.
“I nostri risultati rivelano preoccupazioni reali e urgenti poiché gli affari e la giurisdizione sono aree per le quali i sistemi di intelligenza artificiale che coinvolgono LLM sono attualmente in fase di sviluppo o implementazione”, ha affermato Hofmann in un post sulla piattaforma di social media X (ex Twitter).
I LLM presupponevano anche che i parlanti dell’inglese afroamericano avessero lavori meno prestigiosi rispetto a coloro che parlavano l’inglese standardizzato, anche se agli algoritmi non viene detto che i parlanti sono neri.
Più grande è il LLM, meglio capirà l’inglese afroamericano e sarà più probabile che evitino termini apertamente razzisti, continua lo studio. Le dimensioni però non influiscono sui loro pregiudizi nascosti.
Hofmann ha affermato che, poiché il razzismo palese sta diminuendo nei LLM, potrebbe esserci il rischio che coloro che interpretano lo studio lo prendano come “un segno che il razzismo è stato risolto”, invece di mostrare che il modo in cui i LLM mostrano i pregiudizi razziali sta cambiando.
Lo studio ha dimostrato che il modo regolare di insegnare ai LLM nuovi modelli di recupero delle informazioni, fornendo feedback umani, non aiuta a contrastare i pregiudizi razziali nascosti.
Invece, ha scoperto che potrebbe insegnare ai modelli linguistici a “nascondere superficialmente il razzismo che mantengono a un livello più profondo”.
Image:Getty Images