Le aziende di intelligenza artificiale generativa stanno correndo per fare un passo avanti rispetto alle altre.
Antropico ha lanciato un nuovo e più potente modello di intelligenza artificiale generativa (AI), che arriva tre mesi dopo la sua versione precedente, e afferma di superare i suoi concorrenti come ChatGPT-4o.
L’azienda si definisce una società di ricerca sulla sicurezza dell’intelligenza artificiale ed è stata fondata da ex dirigenti e ricercatori di OpenAI. Anche Google e Amazon sono i principali investitori dell’azienda.
Anthropic ha affermato che il suo nuovo modello – Claude 3.5 Sonnet – la prima versione del prossimo gruppo di modelli Claude 3.5, è il “modello più potente finora”.
In una valutazione interna della codifica ad agenti, Claude 3.5 Sonnet ha risolto il 64% dei problemi, superando Claude 3 Opus che ne ha risolto il 38%, ha affermato la società.
Ha anche migliori sfumature, umorismo e capacità di istruzione complesse ed è eccezionale nello scrivere contenuti di alta qualità con un tono naturale e riconoscibile, ha aggiunto la società.
Antropico ha anche scoperto che nel ragionamento di livello universitario ha ottenuto un punteggio del 59%, rispetto a ChatGPT-4o che era al 53%.
Nel ragionamento sul testo, ha anche sovraperformato altre società con l’87%, rispetto all’83% di ChatGPT-4o, al 74% di Gemini di Google e al modello di linguaggio grande Llama di Meta, che ha ottenuto l’83%.
Tuttavia, nella risoluzione dei problemi di matematica, è stato battuto da ChatGPT-4o che era il 5% più preciso di Claude 3.5.
Corri verso l’alto con l’intelligenza artificiale
Le aziende di intelligenza artificiale generativa stanno gareggiando per fare un passo avanti l’una rispetto all’altra. Ad aprile, OpenAI, Google e Mistral AI hanno rilasciato nuove versioni dei loro modelli di intelligenza artificiale di frontiera entro 12 ore l’una dall’altra.
Ciò ha suscitato la preoccupazione che le aziende tecnologiche stiano implementando la tecnologia più rapidamente di quanto gli sviluppatori possano intervenire e impedire che i modelli vengano utilizzati per scopi dannosi o se i modelli presentano pregiudizi che devono essere corretti.
“Creare sistemi che siano non solo capaci ma anche affidabili, sicuri e in linea con i valori umani è una sfida complessa”, ha affermato Dario Amodei, cofondatore e CEO di Anthropic.
“Non abbiamo tutte le risposte, ma ci impegniamo a lavorare su questi problemi in modo ponderato e responsabile”, ha affermato in un comunicato stampa.
Anthropic ha anche annunciato il lancio di Artifacts on Claude.aiche consente di visualizzare contenuti come frammenti di codice o documenti di testo in una finestra dedicata insieme alle loro creazioni.
“Questo crea uno spazio di lavoro dinamico”, ha affermato Anthropic, in cui gli utenti possono vedere, modificare e sviluppare ciò su cui stanno lavorando in tempo reale.
L’azienda ha affermato che segna “l’evoluzione di Claude da un’intelligenza artificiale conversazionale a un ambiente di lavoro collaborativo”.
“È solo l’inizio di una visione più ampia per Claude.aiche presto si espanderà a
supportare la collaborazione del team”, ha affermato la società.
Si afferma che nel prossimo futuro i team, e infine le organizzazioni, saranno in grado di centralizzare in modo sicuro le proprie conoscenze, i documenti e il lavoro in corso in uno spazio condiviso, con Claude che fungerà da “compagno di squadra su richiesta”.
Anthropic ha affermato che in seguito prevede di rilasciare aggiornamenti alla sua famiglia di modelli, inclusi
Claude 3.5 Haiku e Claude 3.5 Opus entro la fine dell’anno “perseguendo anche la nostra ricerca sulla sicurezza per garantire che questi sistemi rimangano sicuri”.
L’azienda è stata costituita nel 2021 dai fratelli Dario e Daniela Amodei, dopo che hanno lasciato OpenAI.
In un’intervista a Fortune, Dario ha dichiarato di aver lasciato l’azienda a causa della scarsa attenzione di OpenAI alla sicurezza.
L’annuncio arriva come Il cofondatore di OpenAI ed ex capo scienziato ha annunciato la propria società di intelligenza artificiale dedicato alla sicurezza.
Image:Getty Images