Poche settimane dopo il lancio di ChatGPT, un potente chatbot di intelligenza artificiale (AI), Darren Hick ha affermato di aver sorpreso uno dei suoi studenti a imbrogliare inviando un saggio generato da un robot.
La nuova tecnologia, rilasciata da OpenAI e apertamente disponibile al pubblico, può praticamente fare qualsiasi cosa.
Digita una richiesta e può scrivere un tema scolastico persuasivo, comporre una canzone o persino fare uno stupido scherzo bussare in pochi secondi.
Sebbene possa scrivere in modo convincente, ciò non significa che ciò che dice sia vero.
Questo è ciò che ha fatto scattare il campanello d’allarme per Hick, un assistente professore di filosofia alla Furman University, nello stato americano del South Carolina.
“La prima bandiera rossa che è spuntata è stata che il mio studente stava parlando di un filosofo in un modo che non mi sarei aspettato che la classe sapesse”, ha detto a Euronews.
“La bandiera rossa finale era quanto fosse ben scritto. I saggi che sono stati plagiati sono scritti piuttosto male: la voce cambia, la struttura non funziona. Era una strana combinazione di bandiere che non avevo mai visto prima”, ha detto .
Il software ha causato preoccupazione diffusa quando si tratta di questioni etiche, in particolare barare nel mondo accademico.
Ma ancora più preoccupante, l’intelligenza artificiale è stata utilizzata per generare articoli di notizie false dal suono realistico, suscitando il timore che potesse essere utilizzata in modo improprio per influenzare le elezioni, ad esempio.
Come puoi sapere se un’intelligenza artificiale ha scritto il testo che stai leggendo?
Alcune cose possono renderti sospettoso.
Se più persone pongono a ChatGPT esattamente la stessa domanda, genererà quasi la stessa risposta per ciascuna di esse.
Quindi, se sei un insegnante e stai correggendo diversi compiti che hanno la stessa costruzione o gli stessi esempi o ragionamenti, allora potrebbe essere un testo generato dall’intelligenza artificiale.
Un altro indizio a cui prestare attenzione è come l’IA risponde agli eventi recenti, secondo Muhammad Abdul-Mageed, Canada Research Chair in Natural Language Processing and Machine Learning presso l’Università della British Columbia.
“Il punto debole di ChatGPT è che è addestrato su dati obsoleti del 2021 o 2022. Non sarà in grado di rilevare qualcosa che è accaduto di recente”, ha detto a Euronews.
“Ad esempio, non sarebbe in grado di dirti se la Francia ha vinto o meno la Coppa del Mondo del Qatar. Questo tipo di informazioni fattuali è difficile da dire per il modello”.
Un’app per “rilevare” l’uso di ChatGPT
Altri stanno sviluppando modelli per rilevare se un testo è stato scritto dall’intelligenza artificiale. È il caso di Edward Tian, uno studente universitario di 22 anni che afferma di aver creato l’app GPTZero in grado di rilevare se ChatGPT è stato utilizzato.
Ma nessuno di questi metodi è infallibile perché oggi non esiste alcun modello di rilevamento, secondo Irene Solaiman, direttore delle politiche presso la start-up di intelligenza artificiale Hugging Face.
“Non esiste una soluzione magica per il rilevamento dell’intelligenza artificiale. Proprio come gli umani, man mano che questi modelli diventano più potenti, questi modelli di rilevamento stanno recuperando terreno e non saranno altrettanto buoni”, ha detto a Euronews.
Per Abdul-Mageed, lavorare sui modelli di rilevamento è come giocare a colpire la talpa.
“È come cercare di inseguire un bersaglio in movimento. Ogni volta che trovi qualcosa per rilevare il modello, c’è un modello ancora migliore. Non credo che questa gara sia il modo migliore per risolvere questo problema”, ha detto.
Sebbene molti nella comunità dell’IA abbiano lodato i potenziali benefici educativi di ChatGPT, la prospettiva che l’IA entri in classe terrorizza Hick, il professore universitario.
“Il problema con questo software è che è progettato per migliorare. È addestrato su un ampio set di dati. Se il set di dati viene ampliato, queste piccole bandiere rosse che ho notato potrebbero scomparire in un anno. Il genio è uscito dalla bottiglia e questo è spaventoso”, ha detto a Euronews.
Gli esperti ritengono che con l’intelligenza artificiale che diventa sempre più potente, potrebbe essere il momento di ripensare il modo in cui il sistema educativo mette alla prova gli studenti o le diverse politiche che i legislatori potrebbero attuare per impedire agli strumenti di intelligenza artificiale di causare danni nel mondo reale.
“Molte politiche non vengono aggiornate per integrare questi modelli. Scrivere un intero saggio utilizzando l’IA è accademicamente disonesto? Non ci avevamo mai pensato prima”, ha affermato Solaiman.
Per quanto riguarda Hick, dice che ha dovuto riconsiderare il modo in cui insegna: “Ogni volta che assegno un saggio, devo chiedermi ‘Cosa potrebbe fare ChatGPT con questo?'”
Da allora ha trovato una soluzione: un esame orale improvvisato se mai sente l’odore di un compito che sembra scritto da AI.
Image:Getty Images