I ricercatori della Sakana.AI, un’azienda con sede a Tokyo, hanno lavorato allo sviluppo di un modello linguistico di grandi dimensioni (LLM) progettato specificamente per la ricerca scientifica.
I ricercatori di Sakana.AI hanno sviluppato un modello di intelligenza artificiale (IA) che potrebbe essere in grado di automatizzare l’intero processo di ricerca scientifica.
Lo “scienziato dell’intelligenza artificiale” è in grado di identificare un problema, sviluppare ipotesi, implementare idee, condurre esperimenti, analizzare i risultati e scrivere relazioni.
I ricercatori hanno inoltre incorporato un modello linguistico secondario per sottoporre a revisione paritaria e valutare la qualità di questi report, nonché convalidarne i risultati.
“Consideriamo questo un momento GPT-1 per la scoperta scientifica generativa”, ha detto a Euronews Next Robert Lange, ricercatore scientifico e membro fondatore di Sakana.AI, aggiungendo che, proprio come nelle fasi iniziali dell’intelligenza artificiale in altri campi, il suo vero potenziale nella scienza sta appena iniziando a essere compreso.
Integrare l’intelligenza artificiale nella ricerca scientifica
L’integrazione dell’intelligenza artificiale nella scienza ha incontrato alcune limitazioni dovute alla complessità del settore e ai problemi persistenti con questi strumenti, come allucinazioni e dubbi sulla proprietà.
Tuttavia, la sua influenza nella scienza potrebbe essere già più diffusa di quanto molti credano, spesso sfruttata dai ricercatori senza una chiara comunicazione.
All’inizio di quest’anno, un studio che ha analizzato modelli di scrittura e utilizzo di parole specifiche in articoli accademici in seguito al rilascio del noto chatbot AI, ChatGPT, hanno stimato che circa 60.000 articoli di ricerca potrebbero essere stati migliorati o rifiniti utilizzando strumenti di intelligenza artificiale.
Sebbene l’uso dell’intelligenza artificiale nella ricerca scientifica possa sollevare alcune preoccupazioni etiche, potrebbe anche rappresentare un’opportunità per nuovi progressi nel settore se utilizzato correttamente. La Commissione europea afferma infatti che l’intelligenza artificiale può fungere da “catalizzatore per le scoperte scientifiche e da strumento chiave nel processo scientifico”.
Il progetto AI Scientist è ancora nelle sue fasi iniziali: il mese scorso i ricercatori hanno pubblicato un articolo in fase di pre-print e il sistema presenta alcune limitazioni notevoli.
Tra i difetti, come descritto in dettaglio dai ricercatori, rientrano l’implementazione non corretta delle idee, confronti ingiusti con i valori di base ed errori critici nella stesura e nella valutazione dei risultati.
Tuttavia, Lange vede questi problemi come trampolini di lancio cruciali e si aspetta che il modello di intelligenza artificiale migliorerà significativamente con più risorse e tempo.
“Se si pensa alla storia dei modelli di apprendimento automatico, come i modelli di generazione di immagini, i chatbot attuali e anche i modelli testo-video, spesso iniziano con alcuni difetti e forse alcune immagini generate, che non sono molto piacevoli alla vista”, ha affermato Lange.
“Ma col tempo, man mano che investiamo più risorse collettive come comunità, diventano molto più potenti e molto più capaci”, ha aggiunto.
Uno strumento per supportare gli scienziati, non sostituirli
Quando testato, lo scienziato dotato di intelligenza artificiale ha dimostrato a volte un certo grado di autonomia, esibendo comportamenti che imitano le azioni dei ricercatori umani, come l’adozione di misure extra inaspettate per garantire il successo.
Ad esempio, invece di ottimizzare il codice per renderlo più veloce quando un esperimento richiedeva più tempo del previsto, ha provato a modificare le impostazioni per estendere il limite di tempo.
Tuttavia, affermano i suoi creatori, l’intelligenza artificiale non è destinata a sostituire i ricercatori umani, bensì a integrare il loro lavoro.
“Penso che con molti degli strumenti di intelligenza artificiale speriamo che non sostituiscano completamente gli esseri umani, ma piuttosto che consentano loro di lavorare al livello di astrazione che desiderano e in cui sono davvero, davvero bravi”, ha affermato Lange.
Ha inoltre spiegato che, dati gli attuali limiti dei modelli di IA, la verifica umana è ancora importante per garantire l’accuratezza e l’affidabilità della ricerca generata dall’IA. Rimarranno inoltre essenziali in aree come la revisione paritaria e l’impostazione delle direzioni di ricerca, ha affermato.
Uso etico dell’intelligenza artificiale nella scienza
Lange sottolinea che, con il progredire dell’integrazione dell’intelligenza artificiale nella ricerca scientifica, è necessaria la trasparenza.
Un modo per farlo è aggiungere filigrane ai documenti generati dall’intelligenza artificiale, il che potrebbe garantire che i contributi dell’intelligenza artificiale siano resi pubblici.
“Credo fermamente che sia necessario garantire che tutte queste cose siano sviluppate collettivamente e in modo iterativo, in modo da poterne garantire l’implementazione in sicurezza”, ha affermato Lange.
Avere un codice sorgente aperto per i modelli ed essere trasparenti sul loro sviluppo potrebbe anche supportare l’uso etico di questi sistemi di intelligenza artificiale in ambito scientifico.
“Stiamo pensando che i modelli open source possano aggiungere molto a questa discussione. Quindi, fondamentalmente, lungo le linee della democratizzazione, penso che dato che questo processo è così economico, tutti possono essere coinvolti e dovrebbero, fin dall’inizio, essere coinvolti”, ha detto Lange.
Ha aggiunto che spera che il progetto AI Scientist possa dare il via a un dibattito più ampio sul futuro della ricerca scientifica e sul ruolo dell’intelligenza artificiale in tale ambito.
“Ci auguriamo che questo articolo, o questo progetto, possa in un certo senso innescare un grande dibattito nella comunità su come condurre la scienza nei prossimi anni e anche, forse su scala più ampia, su cosa sia in sostanza un contributo scientifico”.
Image:Getty Images