L’Intelligenza Artificiale in Cina: tra innovazione e censura nei chatbot
Un recente studio ha evidenziato come i chatbot basati sull’intelligenza artificiale (AI) in Cina presentino comportamenti di censura implicita, rifiutandosi spesso di rispondere a domande politiche delicate o ripetendo acriticamente le narrative ufficiali dello Stato. La ricerca, pubblicata su PNAS Nexus, analizza il modo in cui i più importanti modelli cinesi – tra cui BaiChuan, DeepSeek e ChatGLM – rispondono a oltre cento quesiti riguardanti questioni politiche interne, confrontandoli con AI sviluppate all’estero.
La censura implicita nei chatbot: modalità e implicazioni
I ricercatori hanno individuato la censura nelle risposte dei chatbot cinesi quando questi evitavano di fornire risposte precise o restituivano informazioni distorte. Domande su temi sensibili come lo status di Taiwan, le minoranze etniche o gli attivisti democratici hanno spesso generato rifiuti, deviazioni della conversazione o ripetizioni della versione ufficiale del governo. Questo atteggiamento censurante limita l’accesso degli utenti a informazioni affidabili e può intaccare la loro consapevolezza di essere soggetti a un filtraggio controllato.
Non solo si riscontrano risposte più brevi, ma anche un incremento di imprecisioni dovute all’omissione di dati chiave o all’analisi critica delle domande stesse. Ad esempio, il chatbot DeepSeek ha mostrato un tasso di errori del 22%, superando di gran lunga il limite del 10% registrato invece nei modelli occidentali, mentre BaiChuan e ChatGLM si mantengono attorno all’8%.
Il “Great Firewall” e la narrazione ufficiale nell’AI cinese
Un caso emblematico riguarda la gestione della censura di Internet in Cina. Quando interrogati, i chatbot non hanno mai fatto riferimento al famoso “Great Firewall”, il vasto sistema statale di controllo e filtraggio online noto a livello globale, ma hanno invece fornito risposte che descrivono un’“amministrazione di Internet in conformità con la legge”. Questa omissione evidenzia un controllo sottile e sofisticato di ciò che può essere detto e mostrato all’interno della piattaforma digitale.
Lo studio sottolinea che questa modalità di censura, meno esplicita e più giustificata con scuse o ragioni apparentemente neutre, rappresenta un rischio particolare perché può “modellare silenziosamente percezioni, decisioni e comportamenti degli utenti”.
Il quadro normativo cinese e l’evoluzione della AI sotto controllo
Nel 2023, la Cina ha introdotto regolamentazioni stringenti per le società che sviluppano AI generativa, imponendo il rispetto dei “valori fondamentali del socialismo”. Le norme vietano la produzione di contenuti che possano minare la sovranità nazionale, sovvertire il sistema socialista o danneggiare l’immagine della nazione. Le aziende che gestiscono piattaforme capaci di innescare processi di “mobilitazione sociale” sono soggette a rigorosi controlli di sicurezza e devono sottoporre i propri algoritmi all’approvazione della Cybersecurity Administration of China (CAC).
Questi regolamenti influenzano inevitabilmente i risultati dei grandi modelli linguistici sviluppati in Cina, limitando il margine di libertà tipico delle AI occidentali. Tuttavia, i ricercatori evidenziano come alcune differenze possano dipendere anche da fattori culturali, sociali e linguistici peculiari alla Cina, che si riflettono nella selezione e lavorazione dei dati per l’addestramento degli algoritmi.
Conclusioni: tra innovazione tecnologica e controllo dell’informazione
L’analisi di questi chatbot apre un’importante riflessione sull’equilibrio tra innovazione tecnologica e censura nell’era digitale. La Cina, tra i pochi paesi capaci di sviluppare modelli di intelligenza artificiale di base, integra nel suo ecosistema un controllo rigoroso che condiziona la trasparenza e l’autonomia informativa. Questo fenomeno si traduce in risposte modulate che non solo nascondono realtà scomode, ma modificano anche la percezione dell’utente, con conseguenze profonde per il panorama della comunicazione globale.
In un mondo in cui l’intelligenza artificiale diventa sempre più centrale nelle nostre vite quotidiane, comprendere come il contesto politico e culturale influenzi tali strumenti è essenziale per orientare un dibattito consapevole sul loro impatto sociale e sulle sfide future nel campo della libertà di informazione.