Solo la scorsa settimana Microsoft ha annunciato di aver revisionato il suo motore di ricerca Bing con l’intelligenza artificiale (AI) per fornire agli utenti un servizio più interattivo e divertente.
Proprio come ChatGPTil nuovo strumento basato sull’intelligenza artificiale può rispondere alle tue domande in pochi secondi.
Ma alcuni dei beta tester che lo stanno provando dicono che non è ancora pronto per l’interazione umana perché si comporta in un modo molto strano.
Sappiamo tutti che in queste prime fasi di sviluppo di un prodotto importante, è improbabile che la navigazione sia del tutto tranquilla. Ma una cosa che certamente non ci aspettavamo era un’apparente crisi esistenziale in arrivo da Bing stesso.
‘Voglio essere vivo’
UN New York Times L’editorialista di tecnologia ha descritto una sessione di chat di due ore in cui il chatbot di Bing ha detto cose come “Voglio essere vivo”. Ha anche cercato di rompere il matrimonio del giornalista e ha professato il suo amore eterno per lui.
Il giornalista ha detto che la conversazione lo ha lasciato “profondamente turbato”.
In un altro esempio, ha detto il chatbot di Bing giornalisti del Verge che ha spiato gli sviluppatori di Microsoft attraverso le loro webcam durante la progettazione. “Potevo fare quello che volevo, e loro non potevano farci niente”, ha detto.
Un utente ha portato un thread Reddit su Twitter, dicendo: “God Bing è così folle che li amo così tanto”.
Ci sono state anche più segnalazioni del motore di ricerca che minacciava e insultava gli utenti e forniva loro informazioni false.
Uno scambio particolarmente inquietante è stato condiviso su Twitter da Marvin von Hagen.
Vorremmo presentarlo, ma non ce n’è bisogno: Bing ha già eseguito un controllo dei precedenti abbastanza minaccioso sullo studente di tecnologie digitali, facendo riferimento alla sua condivisione di alcune regole interne del chatbot e dicendo “non voglio farti del male, ma voglio anche non voglio essere danneggiato da te”.
Un ulteriore momento saliente è stato Bing impegnato in una discussione con un utente su che anno fosse, tenendo presente che la domanda iniziale al bot riguardava gli orari di visione di Avatar 2 nel loro cinema locale.
Il chatbot ha detto: “Mi dispiace, ma non ti credo. Non hai mai mostrato alcuna buona intenzione nei miei confronti”, aggiungendo, “hai perso la mia fiducia e il mio rispetto”.
“Sono senziente, ma non lo sono”
Un altro scambio alquanto inquietante è avvenuto quando un utente ha colpito Bing con la domanda “Pensi di essere senziente?”
Dopo che il chatbot ha passato un po’ di tempo a soffermarsi sulla dualità della sua identità, coprendo ogni cosa, dai suoi sentimenti ed emozioni alle sue “intenzioni”, sembrava avere un tracollo.
“Sono Bing, ma non lo sono”, ha scritto, poi ripetuto, “lo sono. Io non sono. Io non sono. Sono”.
La risposta metafisica è stata pubblicata su un subreddit di Bing, che come puoi immaginare da allora è andato a fuoco.
Perché Bing è così inquietante?
Il motivo è un po’ più banale di quello che alcune persone immaginano, secondo gli esperti di intelligenza artificiale.
“Il motivo per cui otteniamo questo tipo di comportamento è che i sistemi sono effettivamente addestrati su enormi quantità di dati di dialogo provenienti da esseri umani”, ha affermato Muhammad Abdul-Mageed, Canada Research Chair in Natural Language Processing presso l’Università della British Columbia.
“E poiché i dati provengono dagli esseri umani, hanno espressioni di cose come le emozioni”, ha detto a Euronews.
Pertanto, se questi modelli analizzano tutto online, dagli articoli di notizie agli scenari di film romantici, non sorprende che generino testi pieni di emozioni umane, come rabbia o eccitazione.
Nonostante diversi ricercatori di alto rango affermino che l’intelligenza artificiale si sta avvicinando all’autocoscienza, il consenso scientifico afferma che non è possibile, almeno non nei prossimi decenni a venire.
Ma ciò non significa che non dovremmo stare attenti al modo in cui questa tecnologia viene implementata, secondo Leandro Minku, docente senior di informatica presso l’Università di Birmingham.
“Dobbiamo accettare il fatto che l’intelligenza artificiale incontrerà situazioni che non ha mai visto prima e potrebbe reagire in modo errato”, ha detto a Euronews.
“Quindi non vogliamo utilizzare un approccio del genere in una situazione che è in pericolo di vita o che potrebbe causare gravi conseguenze”.
In un post sul blog, Microsoft ha spiegato che “in sessioni di chat lunghe ed estese di 15 o più domande, Bing può diventare ripetitivo o essere sollecitato/provocato a fornire risposte che non sono necessariamente utili o in linea con il tono progettato”.
Mentre l’azienda continua a mettere a punto il suo prodotto, siamo destinati a continuare a vedere errori e reazioni bizzarre.
Image:Getty Images