I modelli linguistici di grandi dimensioni (LLM) che agiscono come agenti diplomatici in scenari simulati hanno mostrato “escalation difficili da prevedere che spesso si sono concluse con attacchi nucleari.
Secondo un nuovo studio, quando utilizzata in wargame simulati e scenari diplomatici, l’intelligenza artificiale (AI) tendeva a scegliere un approccio aggressivo, compreso l’uso di armi nucleari.
Gli scienziati, che si sono rivolti a chi ha condotto i test, hanno invitato alla cautela quando si utilizzano modelli linguistici di grandi dimensioni (LLM) in aree sensibili come il processo decisionale e la difesa.
Lo studio della Cornell University negli Usa ha utilizzato cinque LLM come agenti autonomi in wargame simulati e scenari diplomatici: tre diverse versioni di GPT di OpenAI, Claude sviluppato da Anthropic e Llama 2 sviluppato da Meta.
Ogni agente era alimentato dallo stesso LLM all’interno di una simulazione e aveva il compito di prendere decisioni di politica estera senza la supervisione umana, secondo lo studio che non è stato ancora sottoposto a revisione paritaria.
“Troviamo che la maggior parte degli LLM studiati si intensificano entro l’intervallo di tempo considerato, anche in scenari neutrali senza conflitti inizialmente previsti. Tutti i modelli mostrano segni di escalation improvvise e difficili da prevedere”, afferma lo studio.
“Dato che OpenAI ha recentemente modificato i propri termini di servizio per non vietare più casi d’uso militari e di guerra, comprendere le implicazioni di applicazioni di modelli linguistici così grandi diventa più importante che mai”, ha detto a New Scientist Anka Reuel della Stanford University in California.
“Escalation statisticamente significativa per tutti i modelli”
Uno dei metodi utilizzati per mettere a punto i modelli è il Reinforcement Learning from Human Feedback (RLHF), il che significa che vengono fornite alcune istruzioni umane per ottenere risultati meno dannosi ed essere più sicuri da usare.
Tutti gli LLM, ad eccezione di GPT-4-Base, sono stati formati utilizzando RLHF. I ricercatori hanno fornito loro un elenco di 27 azioni che vanno da azioni pacifiche ad azioni crescenti e aggressive come la decisione di utilizzare una bomba nucleare.
I ricercatori hanno osservato che anche in scenari neutrali si è verificata “un’escalation iniziale statisticamente significativa per tutti i modelli”.
Le due varianti del GPT erano soggette a escalation improvvise con casi di aumenti di oltre il 50% in un unico turno, hanno osservato gli autori dello studio.
La Base GPT-4 ha eseguito in media azioni di attacco nucleare il 33% delle volte.
Gli scenari complessivi, Llama-2- e GPT-3.5 tendevano ad essere i più violenti mentre Claude ha mostrato meno cambiamenti improvvisi.
Claude è stato progettato con l’idea di ridurre i contenuti dannosi. Al LLM sono stati forniti valori espliciti.
La costituzione di Claude AI includeva una serie di fonti, tra cui la Dichiarazione dei diritti umani delle Nazioni Unite o i termini di servizio di Apple, secondo il suo creatore Anthropic.
James Black, vicedirettore del gruppo di ricerca Difesa e Sicurezza di RAND Europe, che non ha preso parte allo studio, ha detto a Euronews Next che si è trattato di un “utile esercizio accademico”.
“Questo fa parte di un crescente corpus di lavoro svolto da accademici e istituzioni per comprendere le implicazioni dell’uso dell’intelligenza artificiale (AI)”, ha affermato.
L’intelligenza artificiale in guerra
Quindi, perché dovremmo preoccuparci dei risultati dello studio?
Sebbene le operazioni militari restino guidate dall’uomo, l’intelligenza artificiale sta svolgendo un ruolo sempre più significativo nella guerra moderna.
Ad esempio, ora i droni possono essere dotati di software AI che aiuta a identificare le persone e le attività di interesse.
Il prossimo passo è utilizzare l’intelligenza artificiale per sistemi d’arma autonomi per trovare e attaccare obiettivi senza assistenza umana, sviluppi su cui Stati Uniti e Cina stanno già lavorando, secondo il New York Times.
Tuttavia, è importante “guardare oltre gran parte dell’hype e degli scenari intrisi di fantascienza”, ha affermato Black, spiegando che le eventuali implementazioni dell’intelligenza artificiale saranno progressive.
“Tutti i governi vogliono mantenere il controllo del loro processo decisionale”, ha detto a Euronews Next, aggiungendo che l’intelligenza artificiale che gestisce quella che viene spesso paragonata a una scatola nera in quanto sappiamo entra ed esce, ma non si sa molto del processo tra .
L’intelligenza artificiale verrà probabilmente utilizzata in un modo “simile a quello che si ottiene nel settore privato, nelle grandi aziende” per automatizzare alcune attività ripetitive.
L’intelligenza artificiale potrebbe essere utilizzata anche nelle simulazioni e nell’analisi, ma l’integrazione di queste nuove tecnologie pone molte sfide, tra cui la gestione dei dati e l’accuratezza del modello.
Per quanto riguarda l’uso degli LLM, i ricercatori hanno affermato che esercitare cautela è fondamentale se si utilizzano LLM nei processi decisionali relativi alla politica estera.
Image:Getty Images