Meta, OpenAI, TikTok, Microsoft e Amazon erano tra i firmatari dell’accordo alla Conferenza sulla sicurezza di Monaco. Si sono iscritti anche gli X di Elon Musk.
Venerdì le principali aziende tecnologiche hanno firmato un patto per adottare volontariamente “precauzioni ragionevoli” per impedire che gli strumenti di intelligenza artificiale (AI) vengano utilizzati per interrompere le elezioni democratiche in tutto il mondo.
I dirigenti di Adobe, Amazon, Google, IBM, Meta, Microsoft, OpenAI e TikTok si sono riuniti alla Conferenza sulla sicurezza di Monaco per annunciare un nuovo quadro su come rispondono alle sfide Deepfake generati dall’intelligenza artificiale che ingannano deliberatamente gli elettori.
Anche altre dodici società, tra cui la X di Elon Musk, stanno firmando l’accordo.
“Tutti riconoscono che nessuna azienda tecnologica, nessun governo, nessuna organizzazione della società civile è in grado di affrontare da sola l’avvento di questa tecnologia e il suo possibile uso nefasto”, ha affermato Nick Clegg, presidente degli affari globali di Meta, l’organizzazione società madre di Facebook e Instagram, in un’intervista prima del vertice.
L’accordo è in gran parte simbolico, ma prende di mira immagini, audio e video sempre più realistici generati dall’intelligenza artificiale “che falsificano o alterano ingannevolmente l’aspetto, la voce o le azioni di candidati politici, funzionari elettorali e altre parti interessate chiave in un’elezione democratica, o che fornire false informazioni agli elettori su quando, dove e come potranno votare legalmente”.
Le aziende non si impegnano a vietare o rimuovere i deepfake. Invece, l’accordo delinea i metodi che utilizzeranno per cercare di rilevare ed etichettare i contenuti ingannevoli dell’intelligenza artificiale quando verranno creati o distribuiti sulle loro piattaforme.
Si rileva che le aziende condivideranno le migliori pratiche e forniranno “risposte rapide e proporzionate” quando tali contenuti inizieranno a diffondersi.
Mancanza di requisiti vincolanti
La vaghezza degli impegni e la mancanza di requisiti vincolanti probabilmente hanno contribuito a conquistare un gruppo diversificato di aziende, ma i sostenitori delusi cercavano garanzie più forti.
“Il linguaggio non è così forte come ci si potrebbe aspettare”, ha detto Rachel Orey, direttore associato senior del Progetto Elezioni presso il Bipartisan Policy Center.
“Penso che dovremmo dare credito dove è dovuto, e riconoscere che le aziende hanno un interesse acquisito a che i loro strumenti non vengano utilizzati per compromettere elezioni libere ed eque. Detto questo, è volontario e terremo d’occhio sul fatto che seguano”.
Clegg ha affermato che ogni azienda “ha giustamente la propria serie di politiche sui contenuti”.
“Non si tratta di tentare di imporre una camicia di forza a tutti”, ha detto.
“E in ogni caso nessuno nel settore pensa che si possa affrontare un paradigma tecnologico completamente nuovo nascondendo le cose sotto il tappeto e cercando di giocare a “Acchiacca la talpa” e trovando tutto ciò che si pensa possa trarre in inganno qualcuno”.
All’annuncio di venerdì si sono uniti anche diversi leader politici europei e statunitensi. Vicepresidente della Commissione Europea Vera Jourova ha affermato che, sebbene un accordo di questo tipo non possa essere globale, “contiene elementi positivi e di grande impatto”.
Ha inoltre esortato i colleghi politici ad assumersi la responsabilità di non utilizzare gli strumenti di intelligenza artificiale in modo ingannevole e ha avvertito che la disinformazione alimentata dall’intelligenza artificiale potrebbe portare “alla fine della democrazia, non solo negli Stati membri dell’UE”.
L’interferenza elettorale dell’IA è già in corso
L’accordo raggiunto durante l’incontro annuale sulla sicurezza della città tedesca arriva mentre più di 50 paesi dovrebbero tenere elezioni nazionali nel 2024. Bangladesh, Taiwan, Pakistan e più recentemente l’Indonesia lo hanno già fatto.
I tentativi di interferenza elettorale generata dall’intelligenza artificiale sono già iniziati, come quando l’intelligenza artificiale effettua chiamate robotiche che imitavano Il presidente americano Joe BidenLa voce di ha cercato di scoraggiare la gente dal votare alle elezioni primarie del New Hampshire il mese scorso.
Pochi giorni prima delle elezioni slovacche di novembre, registrazioni audio generate dall’intelligenza artificiale impersonificavano un candidato che discuteva dei piani per aumentare i prezzi della birra e truccare le elezioni. I fact-checker si sono affrettati a identificarli come falsi mentre si diffondevano sui social media.
Anche i politici hanno sperimentato la tecnologia, dall’utilizzo di chatbot basati sull’intelligenza artificiale per comunicare con gli elettori all’aggiunta di immagini generate dall’intelligenza artificiale agli annunci pubblicitari.
L’accordo invita le piattaforme a “prestare attenzione al contesto e in particolare a salvaguardare l’espressione educativa, documentaristica, artistica, satirica e politica”.
Ha affermato che le aziende si concentreranno sulla trasparenza verso gli utenti riguardo alle loro politiche e lavoreranno per educare il pubblico su come evitare di cadere nelle false IA.
La maggior parte delle aziende ha affermato in precedenza che sta proteggendo i propri strumenti di intelligenza artificiale generativa in grado di manipolare immagini e suoni, lavorando anche per identificare ed etichettare i contenuti generati dall’intelligenza artificiale in modo che gli utenti dei social media sappiano se ciò che stanno vedendo è reale. Ma la maggior parte delle soluzioni proposte non sono ancora state implementate e le aziende hanno subito pressioni per fare di più.
Questa pressione è maggiore negli Stati Uniti, dove il Congresso deve ancora approvare leggi che regolino l’intelligenza artificiale in politica, lasciando che le aziende si governino in gran parte da sole.
La Federal Communications Commission ha recentemente confermato che i clip audio generati dall’intelligenza artificiale nelle chiamate robotizzate sono contro la legge, ma ciò non copre i deepfake audio quando circolano sui social media o nelle pubblicità delle campagne.
Molte società di social media hanno già adottato politiche per scoraggiare i post ingannevoli sui processi elettorali, generati o meno dall’intelligenza artificiale.
Meta afferma di rimuovere la disinformazione su “date, luoghi, orari e metodi per votare, registrare gli elettori o partecipare al censimento”, così come altri post falsi intesi a interferire con la partecipazione civica di qualcuno.
Assenti dall’accordo
Jeff Allen, co-fondatore dell’Integrity Institute ed ex data scientist di Facebook, ha affermato che l’accordo sembra un “passo positivo”, ma gli piacerebbe comunque vedere le società di social media intraprendere altre azioni per combattere la disinformazione, come la creazione di raccomandazioni sui contenuti. sistemi che non danno priorità al coinvolgimento sopra ogni altra cosa.
Lisa Gilbert, vicepresidente esecutiva del gruppo di pressione Public Citizen, ha sostenuto venerdì che l’accordo “non è sufficiente” e che le società di intelligenza artificiale dovrebbero “trattenere la tecnologia” come i generatori iperrealistici di testo-video “fino a quando non ci saranno sostanziali e adeguate misure di salvaguardia in atto per aiutarci a evitare molti potenziali problemi”.
Oltre alle aziende che hanno contribuito a mediare l’accordo di venerdì, altri firmatari includono gli sviluppatori di chatbot Anthropic e Inflection AI; ElevenLabs, startup di clonazione vocale; Arm Holdings, progettista di chip; società di sicurezza McAfee e TrendMicro; e Stability AI, noto per aver creato il generatore di immagini Stable Diffusion.
Notevolmente assente è un altro popolare generatore di immagini AI, Midjourney. La startup con sede a San Francisco non ha risposto immediatamente a una richiesta di commento venerdì.
L’inclusione di X – non menzionata in un precedente annuncio sull’accordo pendente – è stata una delle sorprese dell’accordo di venerdì.
Musk ha ridotto drasticamente i team di moderazione dei contenuti dopo aver rilevato l’ex Twitter e si è descritto come un “assolutista della libertà di parola”.
In una dichiarazione di venerdì, l’amministratore delegato di X, Linda Yaccarino, ha affermato che “ogni cittadino e ogni azienda ha la responsabilità di salvaguardare elezioni libere ed eque”.
“X si impegna a fare la sua parte, collaborando con colleghi per combattere le minacce dell’intelligenza artificiale, proteggendo allo stesso tempo la libertà di parola e massimizzando la trasparenza”, ha affermato.
Image:Getty Images