Al personale di Google viene detto che potrebbe dover intervenire per correggere eventuali domande errate dalla sua nuova funzione di chatbot basata sull’intelligenza artificiale (AI), Bard. La società ha anche consigliato di non affermare che il chatbot ha avuto “esperienze simili a quelle umane” o di mostrare “emozioni”.
I dipendenti hanno ricevuto un’e-mail mercoledì dal vicepresidente della società per la ricerca, Prabhakar Raghavan, che includeva un elenco di cose da fare e da non fare, secondo i rapporti.
Ha delineato come i dipendenti dovrebbero testare Bard internamente e correggere le sue risposte automatiche. A coloro che sono stati inseriti nella guida è stato consigliato di dare la priorità alle risposte su argomenti che comprendono e su cui hanno una buona conoscenza.
Il CEO Sundar Pichai ha aggiunto che i dipendenti di Google dovrebbero trascorrere “almeno quattro ore” con Bard per fare i conti con la tecnologia.
Bard è solo un concorrente nel campo relativamente nuovo dei chatbot iper-intelligenti, la maggior parte dei quali ha integrato ChatGPT per rimanere all’avanguardia nelle ricerche basate sull’intelligenza artificiale.
Molti utenti di Bing si sono rivolti a Twitter e Reddit negli ultimi giorni per condividere alcuni dei messaggi “sconvolti”. Il software di Microsoft è stato distribuito nella sua prima settimana da quando è stato rinnovato con la tecnologia ChatGPT.
Anche Google ha svelato la sua tecnologia rivale di chatbot solo la scorsa settimana. È già stato criticato per l’introduzione un po’ affrettata di Bard al mondo, con il prezzo delle azioni della società che è sceso del 9% dopo che gli esperti hanno sottolineato che l’IA ha commesso un errore di fatto nella sua primissima demo.
Sebbene nessuno si aspettasse che queste transizioni procedessero senza intoppi, i ripetuti errori che abbiamo visto nelle ultime settimane sollevano la domanda: l’intelligenza artificiale sarà mai in grado di operare a un livello ottimale senza l’input umano?
Finora, le prove indicherebbero fortemente che non accadrà presto.
Nel caso di Google, non solo l’azienda fa affidamento sul cervello umano del suo staff per ripulire gli errori della sua intelligenza artificiale, ma sembra anche desiderosa di tracciare una linea tra realtà e robot per i suoi utenti.
Lo ha riferito la CNBC che nella sezione da non fare dell’e-mail di Raghavan, i dipendenti sono stati istruiti a non “descrivere Bard come una persona, implicare emozioni o affermare di avere esperienze simili a quelle umane”.
Image:Getty Images