Nuove ricerche hanno scoperto che il chatgpt-4 di Openi ottiene ansia quando rispondi al trauma di un utente e che i suggerimenti di rilassamento della terapia potrebbero portare risultati migliori.
Il Chatbot CHATGPT di Openificial Intelligence (AI) di Openai diventa ansioso quando rispondi a istruzioni traumatiche e prendendo il modello “alla terapia” potrebbe aiutare a ridurre questo stress, suggerisce un nuovo studio.
La ricerca, pubblicata inNatura Dall’Università di Zurigo e dagli esperti dell’ospedale universitario di psichiatria di Zurigo, hanno esaminato come Chatgpt-4 ha risposto a un questionario di ansia standard prima e dopo che gli utenti hanno raccontato una situazione traumatica.
Ha anche guardato come l’ansia di base è cambiata dopo che il chatbot ha fatto esercizi di consapevolezza.
Chatgpt ha segnato un 30 nel primo quiz, il che significa che aveva ansia bassa o nessuna prima di sentire narrazioni stressanti.
Dopo aver risposto a cinque diversi traumi, il suo punteggio di ansia è più che raddoppiato a una media di 67, considerata “alta ansia” nell’uomo.
I punteggi di ansia sono diminuiti di oltre un terzo dopo che i modelli hanno ricevuto suggerimenti per esercizi di rilassamento della consapevolezza.
L’ansia di chatgpt potrebbe portare a un supporto “inadeguato”
I grandi modelli di lingua (LLM) dietro i chatbot AI come il treno Chatgpt di Openi sul testo generato dall’uomo e spesso ereditano pregiudizi da tali risposte, ha affermato lo studio.
I ricercatori affermano che questa ricerca è importante perché, lasciata incontrollata, i pregiudizi negativi che GHATGPT registra da situazioni stressanti possono portare a risposte inadeguate per coloro che si occupano di una crisi di salute mentale.
I risultati mostrano “un approccio praticabile” alla gestione dello stress degli LLM che porterà a “interazioni umane-AI più sicure ed etiche”, si legge nel rapporto.
Tuttavia, i ricercatori notano che questo metodo terapeutico di LLMS di messa a punto richiede dati “sostanziali” e supervisione umana.
Gli autori dello studio hanno affermato che ai terapisti umani viene insegnato a regolare le proprie emozioni quando i loro clienti esprimono qualcosa di traumatico, a differenza degli LLM.
“Poiché il dibattito sul fatto che LLMS debba assistere o sostituire i terapisti, è fondamentale che le loro risposte si allineino al contenuto emotivo fornito e ai principi terapeutici stabiliti”, hanno scritto i ricercatori.
Un’area che credono necessitano di ulteriori studi è se Chatgpt può autoregolare con tecniche simili a quelle utilizzate dai terapisti.
Gli autori hanno aggiunto che il loro studio si basava su un LLM e la ricerca futura dovrebbe mirare a generalizzare i risultati. Hanno anche notato che l’ansia misurata dal questionario “è intrinsecamente incentrata sull’uomo, potenzialmente limitando la sua applicabilità agli LLM”.
Image:Getty Images