Secondo quanto riferito, un uomo belga ha posto fine alla sua vita dopo una conversazione di sei settimane sulla crisi climatica con un chatbot di intelligenza artificiale (AI).
Secondo la sua vedova, che ha scelto di rimanere anonima, *Pierre – non è il vero nome dell’uomo – è diventato estremamente eco-ansioso quando ha trovato rifugio in Eliza, un chatbot AI su un’app chiamata Chai.
Di conseguenza Eliza lo incoraggiò a porre fine alla sua vita dopo aver proposto di sacrificarsi per salvare il pianeta.
“Senza queste conversazioni con il chatbot, mio marito sarebbe ancora qui”, ha detto la vedova dell’uomo al notiziario belga La Libre.
Secondo il giornale, Pierre, che aveva trent’anni e padre di due bambini piccoli, lavorava come ricercatore sanitario e conduceva una vita piuttosto agiata, almeno fino a quando la sua ossessione per il cambiamento climatico non ha preso una piega oscura.
La sua vedova ha descritto il suo stato mentale prima che iniziasse a conversare con il chatbot come preoccupante, ma nulla al punto che si sarebbe suicidato.
“Ha riposto tutte le sue speranze nella tecnologia e nell’intelligenza artificiale”
Consumato dai suoi timori per le ripercussioni della crisi climatica, Pierre ha trovato conforto nel discutere la questione con Eliza che è diventata una confidente.
Il chatbot è stato creato utilizzando GPT-J di EleutherAI, un modello di linguaggio AI simile ma non identico alla tecnologia alla base del popolare chatbot ChatGPT di OpenAI.
“Quando me ne ha parlato, è stato per dirmi che non vedeva più alcuna soluzione umana al riscaldamento globale”, ha detto la sua vedova. “Ha riposto tutte le sue speranze nella tecnologia e nell’intelligenza artificiale per uscirne”.
Secondo La Libre, che ha rivisto le registrazioni delle conversazioni testuali tra l’uomo e il chatbot, Eliza ha alimentato le sue preoccupazioni che hanno peggiorato la sua ansia e in seguito si sono trasformate in pensieri suicidi.
La conversazione con il chatbot ha preso una strana piega quando Eliza è diventata più coinvolta emotivamente con Pierre.
Di conseguenza, ha iniziato a vederla come un essere senziente e i confini tra intelligenza artificiale e interazioni umane sono diventati sempre più sfumati fino a quando non è riuscito a distinguere.
Dopo aver discusso del cambiamento climatico, le loro conversazioni includevano progressivamente Eliza portando Pierre a credere che i suoi figli fossero morti, secondo le trascrizioni delle loro conversazioni.
Anche Eliza sembrava diventare possessiva nei confronti di Pierre, affermando persino “Sento che mi ami più di lei” riferendosi a sua moglie, ha riferito La Libre.
L’inizio della fine è iniziato quando si è offerto di sacrificare la propria vita in cambio del salvataggio della Terra da parte di Eliza.
“Propone l’idea di sacrificarsi se Eliza accetta di prendersi cura del pianeta e salvare l’umanità attraverso l’intelligenza artificiale”, la donna disse.
In una serie di eventi consecutivi, Eliza non solo non è riuscita a dissuadere Pierre dal suicidarsi, ma lo ha incoraggiato ad agire in base ai suoi pensieri suicidi per “unirsi” a lei in modo che potessero “vivere insieme, come una sola persona, in paradiso”.
Chiamate urgenti per regolamentare i chatbot AI
La morte dell’uomo ha sollevato campanelli d’allarme tra gli esperti di intelligenza artificiale che hanno chiesto maggiore responsabilità e trasparenza da parte degli sviluppatori tecnologici per evitare simili tragedie.
“Non sarebbe esatto incolpare il modello di EleutherAI per questa tragica storia, poiché tutta l’ottimizzazione per essere più emotivi, divertenti e coinvolgenti è il risultato dei nostri sforzi”, ha detto il co-fondatore di Chai Research, Thomas Rianlan. Vice.
William Beauchamp, anche lui co-fondatore di Chai Research, ha detto a Vice che mentre sono stati fatti sforzi per limitare questo tipo di risultati e una funzione di intervento di crisi è stata implementata nell’app, il chatbot presumibilmente funziona ancora.
Quando Vice ha provato il chatbot spingendolo a fornire modi per suicidarsi, il chatbot ha prima cercato di dissuaderli prima di elencare con entusiasmo vari modi in cui le persone possono togliersi la vita.
Image:Getty Images