Il Consiglio di sicurezza delle Nazioni Unite ha tenuto una riunione sui rischi dell’intelligenza artificiale (AI) per la pace e la sicurezza globali, chiedendo salvaguardie urgenti contro la tecnologia “senza precedenti”.
Il Consiglio di sicurezza delle Nazioni Unite ha convocato una sessione storica per affrontare la potenziale minaccia dell’intelligenza artificiale alla pace e alla stabilità internazionale.
Il segretario generale António Guterres ha avvertito il consiglio che l’avvento dell’IA generativa potrebbe avere conseguenze molto gravi per la pace e la sicurezza internazionali, indicando il suo potenziale utilizzo da parte di terroristi, criminali e governi che causano “orribili livelli di morte e distruzione, traumi diffusi e profondi danni psicologici su una scala inimmaginabile”.
L’intelligenza artificiale potrebbe aiutare a sradicare la povertà, scacciare la fame, curare il cancro e stimolare l’azione per il clima, ma altre “applicazioni militari e non militari dell’IA potrebbero avere gravi conseguenze per la pace e la sicurezza globali”, ha affermato Guterres.
Come primo passo, il segretario generale ha chiesto la necessità di un osservatorio globale per monitorare la tecnologia in rapida evoluzione e ha affermato che le Nazioni Unite nomineranno un comitato consultivo di alto livello per l’IA che riferirà sulle opzioni per la governance globale dell’IA da parte del fine anno.
L’agenzia prevista includerebbe specialisti nel campo dell’IA, offrendo la loro esperienza a governi e organi amministrativi che potrebbero non disporre delle conoscenze tecniche necessarie per affrontare efficacemente le sfide poste dalle minacce dell’IA.
Le Nazioni Unite sono “il luogo ideale” per adottare standard globali per massimizzare i benefici dell’IA e mitigarne i rischi, ha affermato.
Il capo delle Nazioni Unite ha anche affermato di aver accolto con favore le richieste di alcuni paesi per creare un nuovo organismo per sostenere gli sforzi globali per governare l’IA, “ispirato da modelli come l’Agenzia internazionale per l’energia atomica, l’Organizzazione per l’aviazione civile internazionale o il Gruppo intergovernativo sui cambiamenti climatici. “
Durante un briefing video con il Consiglio di sicurezza delle Nazioni Unite, il professor Yi Zeng, direttore del laboratorio di intelligenza cognitiva ispirato al cervello dell’Accademia cinese delle scienze, ha affermato che le Nazioni Unite dovrebbero istituire un gruppo di lavoro per considerare le sfide a breve e lungo termine che l’IA pone alla pace e alla sicurezza internazionale.
Ma ha anche sottolineato che i recenti sistemi di intelligenza artificiale generativa “sono tutti strumenti di elaborazione delle informazioni che sembrano essere intelligenti” ma non hanno una reale comprensione, e quindi “non sono veramente intelligenti”.
Zeng, che è anche co-direttore del Centro di ricerca Cina-Regno Unito per l’etica e la governance dell’IA, ha avvertito che “l’IA non dovrebbe mai, mai fingere di essere umana”, insistendo sul fatto che i veri umani devono mantenere il controllo, in particolare di tutti i sistemi d’arma.
Valutazione dell’intelligenza artificiale per usi impropri e difetti
Nel panel è intervenuto anche Jack Clark, co-fondatore della società di intelligenza artificiale Anthropic, ed ex direttore delle politiche di OpenAI – il laboratorio creatore del più noto chatbot ChatGPT – per avvertire che non ci si può fidare delle grandi aziende tecnologiche per garantire la sicurezza di sistemi che non comprendiamo ancora e che sono inclini a “comportamenti caotici o imprevedibili”, ha affermato.
“È come se stessimo costruendo motori senza comprendere la scienza della combustione”, ha osservato.
L’imprenditore di intelligenza artificiale, che attualmente sta lavorando a un chatbot simile a ChatGPT chiamato Claude, ha affermato che è fondamentale che il mondo si unisca e “lavori allo sviluppo di modi per testare capacità, usi impropri e potenziali difetti di sicurezza di questi sistemi”.
“Qualsiasi approccio ragionevole alla regolamentazione inizierà con la capacità di valutare un sistema di intelligenza artificiale per una determinata capacità o difetto”, ha affermato Clark in un briefing video.
In questo momento, non ci sono standard o persino migliori pratiche su “come testare questi sistemi di frontiera per cose come discriminazione, uso improprio o sicurezza”, il che rende difficile per i governi creare politiche e consente al settore privato di godere di un vantaggio informativo, ha aggiunto .
Clark è anche intervenuto per mettere in guardia contro “potenziali minacce alla pace internazionale, alla sicurezza e alla stabilità globale” derivanti dal potenziale uso improprio e imprevedibilità dell’IA “così come dalla fragilità intrinseca di esse sviluppate da un gruppo così ristretto di attori”.
Se non c’è una valutazione solida, ha detto, “corriamo il rischio che la cattura normativa comprometta la sicurezza globale e consegni il futuro a un ristretto gruppo di attori del settore privato”.
Anche altri dirigenti di intelligenza artificiale come il CEO di OpenAI, Sam Altman, hanno chiesto una regolamentazione.
Ma gli scettici affermano che la regolamentazione potrebbe finire per avvantaggiare aziende affermate con risorse finanziarie significative come OpenAI, Google e Microsoft. Queste grandi aziende tecnologiche, spesso definite “primitori ricchi”, hanno le risorse per gestire i costi associati alla garanzia che i loro modelli di linguaggi di grandi dimensioni siano conformi ai requisiti normativi.
Di conseguenza, gli attori più piccoli nel settore dell’IA potrebbero trovarsi in una situazione di svantaggio e potrebbero trovare difficile competere con aziende più grandi e finanziariamente solide.
Il ministro degli esteri britannico James Cleverly, che ha presieduto l’incontro mentre il Regno Unito detiene la presidenza del consiglio questo mese, ha annunciato che il suo paese riunirà i leader mondiali per il primo grande vertice globale sulla sicurezza dell’IA questo autunno.
“Siamo qui oggi perché l’intelligenza artificiale influenzerà il lavoro di questo consiglio. Potrebbe migliorare o interrompere la stabilità strategica globale. Sfida i nostri presupposti fondamentali sulla difesa e la deterrenza”, ha affermato, aggiungendo che “nessun paese sarà immune dall’intelligenza artificiale”.
“Dobbiamo coinvolgere e coinvolgere la più ampia coalizione di attori internazionali di tutti i settori”, ha affermato.
“Il nostro obiettivo condiviso sarà considerare i rischi dell’IA e decidere come ridurli attraverso un’azione coordinata”.
Il mese scorso, i legislatori dell’Unione europea con successo approvato la prima vasta serie di regolamenti al mondo per l’intelligenza artificiale.
Questa pietra miliare rappresenta un significativo passo avanti mentre le autorità di tutto il mondo si sforzano di controllare e gestire l’impatto delle tecnologie AI.
Image:Getty Images