Più di 250.000 richieste alle piattaforme OpenAI di realizzare deepfake di candidati alle elezioni statunitensi sono state respinte, afferma la società.
ChatGPT ha rifiutato più di 250.000 richieste di generare immagini dei candidati alle elezioni statunitensi utilizzando la loro piattaforma di intelligenza artificiale (AI).
OpenAI, la società dietro il chatbot AI, ha dichiarato venerdì in un aggiornamento del blog che la loro piattaforma DALL-E, utilizzata per generare immagini e video, ha rifiutato le richieste di realizzare immagini del presidente eletto Donald Trump, la sua scelta per il vicepresidente JD Vance, l’attuale presidente Joe Biden, la candidata democratica Kamala Harris e la sua scelta alla vicepresidenza, Tim Walz.
I rifiuti erano dovuti alle “misure di sicurezza” messe in atto da OpenAI prima del giorno delle elezioni, si legge nel post sul blog.
“Questi guardrail sono particolarmente importanti in un contesto elettorale e sono una parte fondamentale dei nostri sforzi più ampi per impedire che i nostri strumenti vengano utilizzati per scopi ingannevoli o dannosi”, si legge nell’aggiornamento.
I team dietro OpenAI affermano di “non aver visto prove” di operazioni di influenza legate alle elezioni statunitensi diventate virali utilizzando le loro piattaforme, continua il blog.
IL azienda ha dichiarato in agosto di aver impedito a una campagna di influenza iraniana chiamata Storm-2035 di produrre articoli sulla politica statunitense e di presentarsi come organi di stampa conservatori e progressisti.
Agli account relativi a Storm-2035 è stato successivamente vietato l’utilizzo delle piattaforme OpenAI.
Un altro aggiornamento in ottobre ha rivelato che OpenAI ha interrotto più di “20 operazioni e reti ingannevoli” da tutto il mondo che utilizzavano le loro piattaforme.
Di queste reti, le operazioni legate alle elezioni statunitensi rilevate non sono state in grado di generare un “coinvolgimento virale”, rileva il rapporto.
Image:Getty Images