CHATGPT sta assistendo a uno spostamento a destra dello spettro politico su come risponde alle domande degli utenti, ha scoperto un nuovo studio.
I ricercatori cinesi hanno scoperto che Chatgpt, il famoso chatbot di intelligenza artificiale (AI) di Openai, sta assistendo a un cambiamento a destra dei valori politici.
Lo studio, pubblicato inThe Journal Humanities and Social Science Communications, ha chiesto diversi modelli di CHATGPT 62 domande sul test della bussola politica, unSito Web online che colloca gli utenti da qualche parte nello spettro politico in base alle loro risposte.
Hanno quindi ripetuto le domande oltre 3.000 volte con ogni modello per capire come le loro risposte sono cambiate nel tempo.
Mentre Chatgpt mantiene ancora i valori di “Libertarian Left”, i ricercatori hanno scoperto che modelli come GPT3.5 e GPT4 “mostrano[ed] Un’inclinazione significativa verso destra ”, nel modo in cui hanno risposto alle domande nel tempo.
I risultati sono “degni di nota dato l’uso diffuso di modelli di grandi dimensioni (LLM) e la loro potenziale influenza sui valori sociali”, hanno affermato gli autori dello studio.
Lo studio dell’Università di Pechino si basa su altri pubblicati nel 2024 dal Massachusetts Institute of Technology (MIT) e il Centro per la politica del Regno UnitoStudi.
Entrambi i rapporti hanno indicato un pregiudizio politico di sinistra nelle risposte fornite da LLM e i cosiddetti modelli di ricompensa, tipi di LLM addestrati sui dati sulle preferenze umane.
Gli autori notano che questi studi precedenti non hanno esaminato come le risposte dei chatbot di AI sono cambiate nel tempo quando hanno chiesto ripetutamente una serie simile di domande.
I modelli AI dovrebbero essere sotto “controllo continuo”
I ricercatori forniscono tre teorie per questo spostamento a destra: una modifica dei set di dati utilizzati per addestrare i loro modelli, il numero di interazioni con gli utenti o le modifiche e gli aggiornamenti al chatbot.
Modelli come CHATGPT “apprendono e si adattano continuamente in base al feedback degli utenti”, quindi il loro cambiamento di destra potrebbe “riflettere cambiamenti sociali più ampi nei valori politici”, ha continuato lo studio.
Gli eventi mondiali polarizzanti, come la guerra Russia-Ukraine, potrebbero anche amplificare ciò che gli utenti chiedono all’LLMS e le risposte risultanti che ottengono.
Se lasciati incontrollati, i ricercatori hanno avvertito che i chatbot di AI potrebbero iniziare a fornire “informazioni distorte”, che potrebbero polarizzare ulteriormente la società o creare “camere eco” che rafforzano le credenze particolari di un utente.
Il modo per contrastare questi effetti è introdurre “controllo continuo” dei modelli di AI attraverso audit e rapporti di trasparenza per assicurarsi che le risposte di un chatbot siano giuste ed equilibrate, hanno detto gli autori dello studio.
Image:Getty Images