Di Euronews con AP
Pubblicato su
Un giudice federale degli Stati Uniti ha deciso di lasciare che una causa per la morte ingiusta continui contro il personaggio della compagnia di intelligenza artificiale (AI). Dopo il suicidio di un adolescente.
La causa è stata presentata da una madre della Florida che sostiene che suo figlio di 14 anni Sewell Setzer III è caduto vittima di uno dei chatbot dell’azienda che lo ha portato in quella che ha descritto come una relazione emotivamente e sessualmente abusiva che ha portato al suo suicidio.
La causa sostiene che negli ultimi mesi della sua vita, Setzer è diventato sempre più isolato dalla realtà mentre si è impegnato in conversazioni sessualizzate con il bot, che è stato modellato dopo un personaggio immaginario del programma televisivo “Game of Thrones”.
Nei suoi ultimi momenti, il bot ha detto a Setzer che lo amava e ha esortato l’adolescente a “tornare a casa il più presto possibile”, secondo gli screenshot degli scambi.
Pochi istanti dopo aver ricevuto il messaggio, Setzer si è sparato, secondo i documenti legali.
Meetali Jain del Tech Justice Law Project, uno degli avvocati di Garcia, ha affermato che l’ordine del giudice invia un messaggio che la Silicon Valley “deve fermarsi, pensare e imporre guardrail prima di lanciare prodotti sul mercato”.
Personaggio.ai dice che si preoccupa “profondamente” della sicurezza
La società ha cercato di sostenere che era protetto ai sensi del Primo Emendamento della Costituzione degli Stati Uniti, che protegge le libertà fondamentali per gli americani, come la libertà di parola.
Gli avvocati per gli sviluppatori vogliono respingere il caso perché dicono che i chatbot meritano queste protezioni per il primo emendamento e che la sentenza altrimenti potrebbe avere un “effetto agghiacciante” sull’industria dell’intelligenza artificiale.
Nel suo ordine mercoledì, il giudice del distretto senior degli Stati Uniti Anne Conway ha respinto alcune delle affermazioni di libertà di parola degli imputati, dicendo che “non è preparata” a ritenere che l’output dei chatbot costituisca il discorso “in questa fase”.
In una dichiarazione, un portavoce del personaggio. Ha indicato una serie di caratteristiche di sicurezza che la società ha implementato, tra cui Guardrails for Children e Risorse di prevenzione del suicidio che sono state annunciate il giorno in cui è stata presentata la causa.
“Ci preoccupiamo profondamente della sicurezza dei nostri utenti e il nostro obiettivo è quello di fornire uno spazio coinvolgente e sicuro”, afferma la dichiarazione.
La causa contro le tecnologie dei personaggi, la società dietro Personal.ai, nomina anche singoli sviluppatori e Google come imputati.
Il portavoce di Google José Castañeda ha detto all’Associated Press che la società “è fortemente in disaccordo[s]”Con la decisione del giudice Conway.
“Google e il personaggio AI sono del tutto separati e Google non ha creato, progettato o gestito l’app di AI di carattere o qualsiasi parte del componente”, ha letto la dichiarazione.
Un potenziale “caso di test” per problemi di intelligenza artificiale più ampi
Il caso ha attirato l’attenzione di esperti legali e osservatori di intelligenza artificiale negli Stati Uniti e oltre, poiché la tecnologia rimodella rapidamente i luoghi di lavoro, i mercati e le relazioni nonostante ciò che gli esperti avvertono sono rischi potenzialmente esistenziali.
“L’ordine certamente lo stabilisce come un potenziale caso di test per alcune questioni più ampie che coinvolgono l’IA”, ha detto “è un avvertimento per i genitori che i social media e i dispositivi di intelligenza artificiale non sono sempre innocui”, Lyrissa Barnett Lidsky, professore di legge all’Università della Florida, con un focus sul Primo Emendamento e l’IA.
Non importa come si svolge la causa, Lidsky afferma che il caso è un avvertimento dei “pericoli di affidare la nostra salute emotiva e mentale alle aziende di intelligenza artificiale”.
“È un avvertimento per i genitori che i social media e i dispositivi di AI generativi non sono sempre innocui”, ha detto.
Image:Getty Images