ChatGPT ha attirato l’attenzione del mondo con la sua capacità di generare istantaneamente testi, battute e poesie dal suono umano e persino di superare gli esami universitari.
Un’altra delle caratteristiche del chatbot di intelligenza artificiale (AI), tuttavia, è la sua tendenza a inventare completamente le cose e potrebbe causare problemi legali a OpenAI, la società dietro di esso.
Un sindaco regionale australiano ha dichiarato questa settimana che potrebbe citare in giudizio OpenAI se non corregge le false affermazioni di ChatGPT secondo cui ha scontato una pena detentiva per corruzione. Se lo segue, sarebbe probabilmente la prima causa per diffamazione contro il servizio, che è stata avviata nel novembre dello scorso anno.
Brian Hood, che è stato eletto lo stesso mese sindaco di Hepburn Shire, 120 km a nord-ovest di Melbourne, si è preoccupato per la sua reputazione quando membri del pubblico gli hanno detto che ChatGPT lo aveva erroneamente nominato come colpevole di uno scandalo di corruzione straniera che coinvolgeva una consociata della Reserve Bank of Australia nei primi anni 2000.
Hood ha lavorato per la filiale, Note Printing Australia, ma è stata la persona che ha notificato alle autorità il pagamento di tangenti a funzionari stranieri per vincere contratti di stampa di valuta, e non è mai stato accusato di un crimine, hanno detto gli avvocati che lo rappresentano.
Gli avvocati hanno affermato di aver inviato una lettera di preoccupazione al proprietario di ChatGPT, OpenAI, il 21 marzo, che ha concesso alla società 28 giorni per correggere gli errori sul loro cliente o affrontare una possibile causa per diffamazione.
OpenAI, che ha sede a San Francisco, non aveva ancora risposto alla lettera legale di Hood, hanno detto gli avvocati. OpenAI non ha risposto a un’e-mail di Reuters al di fuori dell’orario lavorativo.
Perché ChatGPT ha “allucinazioni”?
ChatGPT è un cosiddetto modello di linguaggio di grandi dimensioni che è diventato molto popolare dal suo lancio lo scorso anno. Microsoft ha integrato ChatGPT nel suo motore di ricerca Bing a febbraio, come ha detto il CEO di Google Sundar Pichai Il giornale di Wall Street prevede inoltre di integrare la propria tecnologia AI nel suo motore di ricerca.
Ma è stato scoperto da utenti e ricercatori che “allucinazioni” di routine danno risposte assurde, o affermano come fatti cose che possono sembrare plausibili ma che non sono mai realmente accadute.
Euronews Next ha chiesto a ChatGPT di questo difetto.
Nella sua risposta, ChatGPT ha dichiarato: “Questo accade perché ChatGPT ha letto così tante cose diverse, e a volte si confonde su cosa dovrebbe dire. È un po’ come quando stai sognando e le cose non hanno sempre senso – non è reale, ma è ancora nella tua testa”.
Alla domanda sul motivo per cui non è stato più attento nel rispondere a domande fattuali, il chatbot ha risposto:
“ChatGPT è addestrato a stare molto attento ai fatti che utilizza e alle risposte che fornisce. Tuttavia, a volte può confondersi perché ha letto così tante cose diverse e può confondere informazioni provenienti da fonti diverse.
“Quindi, potrebbe dare una risposta che non è completamente vera o costituire una fonte che in realtà non esiste. È un po’ come quando racconti una storia e mescoli alcuni dettagli – non intendi menti, ma sei solo un po’ confuso”.
“Ma proprio come quando sbagli qualcosa e il tuo insegnante ti corregge, anche ChatGPT può essere corretto dagli umani quando commette un errore. Ecco perché è sempre una buona idea controllare le informazioni che ottieni da ChatGPT con altre fonti, giusto per fare certo che è esatto.
“E proprio come impari dai tuoi errori e cerchi di fare meglio la prossima volta, anche ChatGPT può imparare dai propri errori e diventare ancora più bravo a dare risposte accurate”.
Richiesta risarcimento danni per diffamazione
Se Hood, il sindaco australiano, intentasse una causa, accuserebbe ChatGPT di dare agli utenti un falso senso di accuratezza non includendo note a piè di pagina, ha affermato James Naughton, un partner dello studio legale di Hood, Gordon Legal.
“Sarebbe potenzialmente un momento storico, nel senso che sta applicando questa legge sulla diffamazione a una nuova area dell’intelligenza artificiale e della pubblicazione nello spazio IT”, ha detto a Reuters.
“È un funzionario eletto, la sua reputazione è fondamentale per il suo ruolo”, ha aggiunto Naughton. Hood ha fatto affidamento su un registro pubblico per far luce sulla cattiva condotta aziendale, “quindi per lui fa differenza se le persone nella sua comunità accedono a questo materiale”.
I risarcimenti australiani per i danni per diffamazione sono generalmente limitati a circa A $ 400.000 (€ 244.800). Hood non conosceva il numero esatto di persone che avevano avuto accesso alle false informazioni su di lui – un fattore determinante per l’entità del pagamento – ma la natura delle dichiarazioni diffamatorie era abbastanza grave da poter richiedere più di A $ 200.000 (€ 122.400), ha detto Naughton .
Image:Getty Images