Secondo un nuovo studio, i ricercatori hanno esaminato un metodo in grado di prevedere quando un modello di testo di intelligenza artificiale (AI) potrebbe avere “allucinazioni”.
Secondo un nuovo studio, un metodo sviluppato da un team di ricercatori di Oxford potrebbe impedire ai modelli di intelligenza artificiale di fare “confabulazioni” che sono un certo tipo di allucinazioni o risposte imprecise.
Mentre continua la campagna pubblicitaria per l’intelligenza artificiale generativa (genAI), sono aumentate le critiche riguardo alle allucinazioni dei modelli di intelligenza artificiale. Si tratta di falsi risultati, apparentemente plausibili, di modelli linguistici di grandi dimensioni (LLM) come GPT di OpenAI o Claude di Anthropic.
Queste allucinazioni potrebbero essere particolarmente problematiche quando si tratta di campi come la medicina, le notizie o le questioni legali.
“’Allucinazione’ è una categoria molto ampia che può significare che quasi ogni tipo di modello linguistico di grandi dimensioni è errato. Vogliamo concentrarci sui casi in cui il LLM è sbagliato senza motivo (invece che essere sbagliato perché, ad esempio, è stato addestrato con dati errati)”, ha detto a Euronews il dottor Sebastian Farquhar, del Dipartimento di informatica dell’Università di Oxford. Prossimo.
“Con gli approcci precedenti, non era possibile distinguere tra un modello incerto su cosa dire e un modello incerto su come dirlo. Ma il nostro nuovo metodo supera questo problema”, ha aggiunto in una dichiarazione sullo studio pubblicata oggi sulla rivista Natura.
“Ottenere risposte dai LLM è economico, ma l’affidabilità è il collo di bottiglia più grande”
Il metodo funziona misurando l’incertezza o la variabilità nel significato degli output attraverso l’entropia semantica.
Prende in considerazione l’incertezza nel significato delle risposte piuttosto che solo la sequenza delle parole.
Ad esempio, se a un modello linguistico viene posta una domanda e questa genera diverse possibili risposte, l’entropia semantica misurerebbe quanto diverse queste risposte siano in termini di significato.
L’entropia è bassa se i significati sono molto simili, indicando un’elevata fiducia nel senso inteso. Se i significati sono molto diversi, l’entropia è elevata, indicando incertezza sul significato corretto.
“Quando un LLM genera una risposta a una domanda, gli fai rispondere più volte. Quindi confronti le diverse risposte tra loro”, ha detto Farquhar.
“In passato, le persone non avevano corretto il fatto che nel linguaggio naturale ci sono molti modi diversi per dire la stessa cosa. Questo è diverso da molte altre situazioni di machine learning in cui i risultati del modello non sono ambigui”, ha aggiunto.
Quando testato su sei LLM (inclusi GPT-4 e LLaMA 2), questo nuovo metodo si è rivelato migliore di altri nell’individuare domande tratte da ricerche su Google, domande tecniche biomediche e problemi matematici che probabilmente causavano risposte false.
Tuttavia, il metodo richiede più risorse di calcolo rispetto alla semplice generazione di testo.
“Ottenere risposte dai LLM è economico, ma l’affidabilità è il collo di bottiglia più grande. Nelle situazioni in cui l’affidabilità conta, il calcolo dell’incertezza semantica è un piccolo prezzo da pagare”, ha affermato il professor Yarin Gal, autore senior dello studio.
Le allucinazioni sono una delle principali critiche mosse ai LLM. Google ha recentemente disattivato la sua nuova funzionalità Panoramica AI dopo aver dovuto affrontare reazioni negative relative a risposte fuorvianti.
Image:Getty Images