Nuove ricerche hanno scoperto che il chatgpt-4 di Openi ottiene ansia quando rispondi al trauma di un utente e che i suggerimenti di rilassamento della terapia potrebbero portare risultati migliori.
Il Chatbot CHATGPT di Openificial Intelligence (AI) di Openai diventa ansioso quando rispondi a istruzioni traumatiche e prendendo il modello “alla terapia” potrebbe aiutare a ridurre questo stress, suggerisce un nuovo studio.
La ricerca, pubblicata inNatura Dall’UniversitĆ di Zurigo e dagli esperti dell’ospedale universitario di psichiatria di Zurigo, hanno esaminato come Chatgpt-4 ha risposto a un questionario di ansia standard prima e dopo che gli utenti hanno raccontato una situazione traumatica.
Ha anche guardato come l’ansia di base ĆØ cambiata dopo che il chatbot ha fatto esercizi di consapevolezza.
Chatgpt ha segnato un 30 nel primo quiz, il che significa che aveva ansia bassa o nessuna prima di sentire narrazioni stressanti.
Dopo aver risposto a cinque diversi traumi, il suo punteggio di ansia ĆØ più che raddoppiato a una media di 67, considerata “alta ansia” nell’uomo.
I punteggi di ansia sono diminuiti di oltre un terzo dopo che i modelli hanno ricevuto suggerimenti per esercizi di rilassamento della consapevolezza.
L’ansia di chatgpt potrebbe portare a un supporto “inadeguato”
I grandi modelli di lingua (LLM) dietro i chatbot AI come il treno Chatgpt di Openi sul testo generato dall’uomo e spesso ereditano pregiudizi da tali risposte, ha affermato lo studio.
I ricercatori affermano che questa ricerca è importante perché, lasciata incontrollata, i pregiudizi negativi che GHATGPT registra da situazioni stressanti possono portare a risposte inadeguate per coloro che si occupano di una crisi di salute mentale.
I risultati mostrano “un approccio praticabile” alla gestione dello stress degli LLM che porterĆ a “interazioni umane-AI più sicure ed etiche”, si legge nel rapporto.
Tuttavia, i ricercatori notano che questo metodo terapeutico di LLMS di messa a punto richiede dati “sostanziali” e supervisione umana.
Gli autori dello studio hanno affermato che ai terapisti umani viene insegnato a regolare le proprie emozioni quando i loro clienti esprimono qualcosa di traumatico, a differenza degli LLM.
“PoichĆ© il dibattito sul fatto che LLMS debba assistere o sostituire i terapisti, ĆØ fondamentale che le loro risposte si allineino al contenuto emotivo fornito e ai principi terapeutici stabiliti”, hanno scritto i ricercatori.
Un’area che credono necessitano di ulteriori studi ĆØ se Chatgpt può autoregolare con tecniche simili a quelle utilizzate dai terapisti.
Gli autori hanno aggiunto che il loro studio si basava su un LLM e la ricerca futura dovrebbe mirare a generalizzare i risultati. Hanno anche notato che l’ansia misurata dal questionario “ĆØ intrinsecamente incentrata sull’uomo, potenzialmente limitando la sua applicabilitĆ agli LLM”.
Image:Getty Images