Elon Musk ha annunciato che sta lavorando alla sua alternativa a ChatGPT, il popolare chatbot sviluppato da OpenAI che, secondo lui, viene addestrato “per essere politicamente corretto”.
Musk è stato uno dei primi investitori in OpenAI, ma da quando ha lasciato l’azienda ha ripetutamente lanciato l’allarme sui pericoli dell’intelligenza artificiale (AI).
Il mese scorso è stato uno dei principali firmatari di una lettera chiedendo l’arresto immediato allo sviluppo di “giganteschi esperimenti di intelligenza artificiale”.
Nonostante questa richiesta di pausa, lunedì il miliardario proprietario di Twitter ha detto al conduttore di Fox News Tucker Carlson che sta sviluppando la sua risposta a ChatGPT, che chiama “TruthGPT”.
Musk ha detto che la sua intelligenza artificiale sarebbe “la massima intelligenza artificiale alla ricerca della verità che cerca di comprendere la natura dell’universo”.
L’idea è che un’intelligenza artificiale che vuole capire l’umanità ha meno probabilità di distruggerla, ha spiegato.
IA “più pericolosa” delle automobili o dei razzi
Durante la prima di un’intervista in due parti con Fox News, Musk ha sostenuto la regolamentazione dell’IA, dicendo di essere un “grande fan”. Tuttavia, ha definito l’intelligenza artificiale “più pericolosa” delle auto o dei razzi e ha affermato che ha il potenziale per distruggere l’umanità.
Separatamente, Musk ha incorporato una nuova attività chiamata X.AI Corp, secondo un deposito aziendale del Nevada. Il sito web dell’ufficio del Segretario di Stato del Nevada afferma che l’azienda è stata costituita il 9 marzo e elenca Musk come direttore e il suo consigliere di lunga data, Jared Birchall, come segretario.
Musk ha espresso per molti anni opinioni forti sull’intelligenza artificiale e ha respinto altri leader tecnologici, tra cui Mark Zuckerberg e Bill Gates, per avere quella che ha descritto come una comprensione “limitata” del campo.
Oltre ad essere uno dei primi investitori in OpenAI, Musk ha co-presieduto il suo consiglio di amministrazione sin dalla sua fondazione nel 2015 come laboratorio di ricerca sull’IA senza scopo di lucro.
Si è dimesso dal consiglio all’inizio del 2018 con una mossa che la start-up di San Francisco ha legato al lavoro di Tesla sulla costruzione di sistemi di guida automatizzati.
“Poiché Tesla continua a concentrarsi maggiormente sull’IA, ciò eliminerà un potenziale conflitto futuro per Elon”, ha dichiarato OpenAI in un post sul blog di febbraio 2018.
“Mi è venuto in mente il nome e il concetto”, ha detto Musk a Carlson, lamentandosi del fatto che OpenAI è ora strettamente alleato con Microsoft e non è più un’organizzazione no-profit.
Separazione in buoni rapporti
Musk ha elaborato la sua partenza nel 2019, affermando che era anche correlata alla sua necessità di concentrarsi sui problemi di ingegneria di Tesla e su alcune divergenze di opinione con i leader di OpenAI. Era “solo meglio separarsi in buoni rapporti”, ha detto.
Ma ci sono state domande sulla qualità dei sistemi di intelligenza artificiale di Tesla. Il mese scorso le autorità di regolamentazione della sicurezza degli Stati Uniti hanno annunciato un’indagine su un incidente mortale che ha coinvolto una Tesla sospettata di utilizzare un sistema di guida automatizzato quando si è imbattuta in un camion dei pompieri parcheggiato in California.
L’indagine del camion dei pompieri fa parte di un’indagine più ampia dell’agenzia su più casi di Tesla che utilizzano il sistema di pilota automatico della casa automobilistica che si schianta contro veicoli di emergenza parcheggiati che tendono ad altri incidenti.
Nell’anno successivo alle dimissioni di Musk dal consiglio, OpenAI era ancora lontana dal lavorare su ChatGPT, ma ha svelato pubblicamente la prima generazione del suo sistema GPT, su cui si basa ChatGPT, e ha iniziato un importante cambiamento per incorporarsi come azienda a scopo di lucro. .
Entro il 2020, Musk stava twittando che “OpenAI dovrebbe essere più aperto” notando che non aveva “alcun controllo e solo una visione molto limitata” al riguardo.
Musk ha ripetutamente evidenziato esempi che secondo lui mostrano pregiudizi o censura di sinistra. Come altri chatbot, ChatGPT ha filtri che cercano di impedirgli di emettere risposte tossiche o offensive.
Image:Getty Images