Le aziende di intelligenza artificiale che affermano di essere open source, come l’ultima impresa di intelligenza artificiale di Musk, rendono open source i pesi ma non i dati su cui vengono formati né il processo di formazione.
Il chatbot di intelligenza artificiale (AI) di Elon Musk Grok non è così fonte aperta come dice lui e non lo sono nemmeno le tante aziende che affermano di esserlo, secondo l’amministratore della definizione.
Fondata nel 1998, l’Open Source Initiative (OSI) è un’organizzazione no-profit che difende il termine open source. Attualmente sta lavorando all’aggiornamento della sua definizione per includere l’intelligenza artificiale open source.
Open source generalmente significa che il codice sorgente del software è disponibile a chiunque sia di pubblico dominio per utilizzarlo, modificarlo e distribuirlo.
La definizione OSI afferma che deve inoltre rispettare 10 criteri, tra cui avere mezzi ben pubblicizzati per ottenere il codice sorgente a un costo ragionevole o gratuitamente, non essere discriminatorio e la licenza non limitare altri software.
Ma i sistemi di intelligenza artificiale sono più difficili da valutare rispetto ai 10 punti dell’OSI.
“La definizione di software open source che usiamo per il software non si applica in modo corretto ai sistemi di intelligenza artificiale”, ha detto a Euronews Next Stefano Maffulli, direttore esecutivo dell’OSI.
Le aziende di intelligenza artificiale che dichiarano di essere open source, come l’ultima impresa di Musk nel campo dell’intelligenza artificiale, rendono open source i pesi – i parametri numerici che influenzano le prestazioni di un modello di intelligenza artificiale – ma non i dati su cui viene addestrato né il processo di formazione.
Maffulli ha affermato che ciò significa che non può essere open source perché non è trasparente su quali dati vengono utilizzati per valutare il peso, il che può causare problemi di copyright e questioni etiche se i dati sono distorti.
“Questi [the weights] sono cose nuove, ed è un momento molto nuovo nella storia in cui abbiamo un nuovo artefatto che è ancora la produzione dell’ingegno, dell’intelligenza e della creatività umana”, ha affermato.
“Ma allo stesso tempo è anche l’elaborazione di calcoli semi-casuali che vengono fatti da grandi computer”.
‘Ricerca della verità’
Musk aveva precedentemente affermato in un post sulla sua piattaforma di social media X che la sua intelligenza artificiale open source è “di gran lunga la più trasparente e alla ricerca della verità”, e aveva citato in giudizio OpenAI per aver abbandonato la sua missione originale a beneficio dell’umanità collaborando con Microsoft. Eppure, Grok di Musk non rivela su quali dati è stato addestrato il peso.
In effetti, le aziende hanno pochi incentivi a farlo perché nel momento in cui annunci su cosa costruisci i tuoi dati è il momento in cui ti esponi a cause legali sul copyright.
“Fino a quando non avremo un po’ di chiarezza su questo fronte legale, penso che saremo ancora testimoni di questo tipo di problemi”, ha detto Maffulli.
Un altro motivo per cui le cosiddette società di intelligenza artificiale open source potrebbero non voler essere completamente trasparenti è preservare i segreti commerciali.
L’OSI ha quindi un compito difficile da svolgere quando si tratta di definire l’IA open source. L’organizzazione ha iniziato la sua ricerca due anni fa, dopo che il ChatGPT di OpenAI è stato catapultato sulla scena nel novembre 2022.
L’ostacolo più grande, ha detto, quando si tratta di definire l’IA open source è comprendere la dipendenza tra i dati nei set di addestramento e i pesi del modello, ha detto Maffulli.
Come definire l’intelligenza artificiale open source
L’OSI ha iniziato riunendo un gruppo di esperti provenienti da organizzazioni come Mozilla Foundation e Wikipedia, ma anche da gruppi della società civile, università e aziende Big Tech come Microsft e Meta.
I gruppi di lavoro hanno quindi valutato tre modelli di intelligenza artificiale generativa: Meta’s Llama, Illusion AI e Bloom, nonché un modello di intelligenza artificiale non generativa che utilizza l’apprendimento automatico.
I gruppi di lavoro hanno votato sui requisiti minimi affinché un sistema di intelligenza artificiale sia open source.
Maffulli ha affermato che i gruppi di lavoro “hanno detto tutti che come minimo deve esserci un requisito minimo di trasparenza dei dati”.
L’OSI sta ora perfezionando questa bozza di definizione, che prevede di rendere pubblica nel corso dell’estate.
Ma ciò non significa che una volta finalizzata la definizione, l’OSI verrà dopo Musk o altre società autoproclamate di intelligenza artificiale open source.
“Noi siamo gli amministratori, i manutentori della definizione, ma in realtà non abbiamo alcun potere forte per farla rispettare”, ha detto Maffulli.
Ha aggiunto che i giudici e i tribunali di tutto il mondo stanno iniziando a riconoscere che la definizione di open source è importante, soprattutto quando si tratta di fusioni ma anche di regolamentazione.
I paesi di tutto il mondo stanno definendo come lo faranno regolamentare l’IA e il software open source è stato oggetto di contesa.
“Se un’azienda afferma di essere open source, deve portare con sé i valori che porta con sé la definizione di open source. Altrimenti è solo confusione”.
Image:Getty Images