Il sistema di intelligenza artificiale può tradurre i pensieri delle persone in testo, scansionando i loro cervelli mentre ascoltano una storia o persino immaginando di raccontare una storia.
L’intelligenza artificiale ha scioccato e ispirato milioni di persone negli ultimi mesi con la sua capacità di scrivere come un essere umano, creare immagini e video straordinari e persino produrre canzoni che stanno scuotendo l’industria musicale.
Ora, i ricercatori hanno rivelato un’altra potenziale applicazione che potrebbe avere enormi implicazioni: l’intelligenza artificiale che può essenzialmente leggere le menti.
Hanno lavorato a un nuovo sistema di intelligenza artificiale in grado di tradurre l’attività cerebrale di qualcuno in un flusso continuo di testo.
Chiamato decodificatore semantico, il sistema misura l’attività cerebrale con uno scanner fMRI (risonanza magnetica funzionale) e può generare testo dalla sola attività cerebrale.
I ricercatori dietro il lavoro, dell’Università del Texas ad Austin, affermano che l’IA potrebbe un giorno aiutare le persone che sono mentalmente coscienti ma incapaci di parlare fisicamente, come le persone che hanno subito gravi ictus.
“Per un metodo non invasivo, questo è un vero balzo in avanti rispetto a ciò che è stato fatto prima, che in genere è costituito da singole parole o frasi brevi”, ha affermato Alex Huth, assistente professore di neuroscienze e informatica presso l’UT Austin, e uno degli autori della carta.
“Stiamo ottenendo il modello per decodificare il linguaggio continuo per lunghi periodi di tempo con idee complicate”.
Esistono altri sistemi di decodifica del linguaggio in fase di sviluppo, ma questi richiedono ai soggetti di avere impianti chirurgici, che sono classificati come sistemi invasivi.
Il decodificatore semantico è un sistema non invasivo, in quanto non sono necessari impianti. A differenza di altri decodificatori, anche i soggetti non sono limitati all’uso di parole da un elenco prescritto. Il decodificatore viene ampiamente addestrato con scansioni fMRI eseguite mentre il soggetto ascolta ore di podcast. Successivamente, il soggetto ascolta una nuova storia, o immagina di raccontare una storia, e la sua attività cerebrale genera il testo corrispondente.
Decodificare “l’essenza” del pensiero
I ricercatori hanno spiegato che i risultati non sono una trascrizione parola per parola di ciò che il soggetto sente o dice nella loro mente, ma il decodificatore cattura “l’essenza” di ciò che viene pensato. Circa la metà delle volte la macchina è in grado di produrre un testo che corrisponda da vicino, e talvolta con precisione, ai significati previsti delle parole originali.
In un esperimento, ad esempio, un ascoltatore ha sentito un oratore dire: “Non ho ancora la patente di guida” e la macchina ha tradotto i loro pensieri in: “Non ha ancora iniziato a imparare a guidare”.
Durante i test, i ricercatori hanno anche chiesto ai soggetti di guardare brevi video silenziosi durante la scansione e il decodificatore è stato in grado di utilizzare la loro attività cerebrale per descrivere accuratamente alcuni eventi dai video.
I ricercatori ritengono che il processo potrebbe essere trasferito a sistemi di imaging cerebrale più portatili come la spettroscopia funzionale nel vicino infrarosso (fNIRS). Attualmente non è pratico per un uso più ampio a causa della sua dipendenza dalle macchine fMRI.
“La fNIRS misura dove c’è più o meno flusso sanguigno nel cervello in diversi momenti nel tempo, il che, a quanto pare, è esattamente lo stesso tipo di segnale misurato dalla fMRI”, ha detto Huth. “Quindi, il nostro esatto tipo di approccio dovrebbe tradursi in fNIRS”, anche se, ha osservato, la risoluzione con fNIRS sarebbe inferiore.
I ricercatori hanno affrontato le potenziali preoccupazioni riguardanti l’uso di questo tipo di tecnologia, con l’autore principale Jerry Tang, uno studente di dottorato in informatica, dicendo: “Prendiamo molto sul serio le preoccupazioni che potrebbe essere utilizzato per scopi cattivi e abbiamo lavorato per evitare che ”.
Insistono sul fatto che il sistema non può essere utilizzato su nessuno contro la sua volontà, poiché deve essere ampiamente addestrato su un partecipante consenziente. “Una persona deve trascorrere fino a 15 ore sdraiata in uno scanner MRI, essere perfettamente immobile e prestare molta attenzione alle storie che sta ascoltando prima che questo funzioni davvero bene su di loro”, ha spiegato Huth.
IL risultati sono stati pubblicati sulla rivista Natura.
Decodificare le immagini dalla mente
La traduzione dell’attività cerebrale in parole scritte non è l’unica cosa su cui i ricercatori che leggono nel pensiero stanno testando l’intelligenza artificiale.
Un altro studi recentipubblicato a marzo, ha rivelato come l’IA può leggere le scansioni cerebrali per ricreare le immagini che una persona ha visto.
I ricercatori dell’Università di Osaka in Giappone hanno utilizzato Stable Diffusion, un generatore di testo in immagine simile a Midjourney e DALL-E 2 di OpenAI.
Quel sistema era in grado di ricostruire esperienze visive dall’attività del cervello umano, grazie ancora alle scansioni cerebrali fMRI effettuate mentre un soggetto guardava un segnale visivo.
Image:Getty Images