La società di intelligenza artificiale degli Stati Uniti (AI) antropica, produttore di Claude Large Language Model (LLM), sta collaborando con la Dust del costruttore di agenti AI con sede a Parigi come parte del suo investimento in scala in Europa.
Hanno annunciato la joint venture giovedì, condividendo i dettagli con Euronews successiva in esclusiva per l’Europa.
È l’ultimo passo nella gara tra le aziende tecnologiche per rilasciare modelli di intelligenza artificiale agenti o agenti di intelligenza artificiale, che non solo elaborano le informazioni ma anche a risolvere i problemi, fare piani e completare compiti.
Differiscono dai chatbot AI, che sono progettati per conversazioni con le persone e servono più come co-piloti rispetto agli attori indipendenti.
Sia i co-fondatori di Antropic che Dust hanno precedentemente lavorato su Openi, che ha reso Chatgpt. I clienti di Dust includono i campioni di tecnologia francese Quonto e Doctolib, che TK.
Nella nuova partnership, Dust aiuterà le aziende a creare agenti di intelligenza artificiale utilizzando il protocollo di contesto del modello di Claude e Antropico (MCP), che è uno standard aperto per collegare le fonti di dati esterne con gli strumenti di intelligenza artificiale. Può essere pensato come una porta USB-C per applicazioni AI.
Le aziende affermano che ciò creerà un sistema operativo centrale in cui gli agenti di intelligenza artificiale possono accedere alle conoscenze dell’azienda e agire indipendentemente dai dipendenti umani, pur mantenendo i loro dati sicuri.
“Le aziende hanno vari strumenti di intelligenza artificiale in tutti i dipartimenti che operano in isolamento senza la capacità di comunicare tra loro”, ha detto a Euronews Gabriel Hubert, CEO e co-fondatore di Dust.
Ha detto che la polvere può superare questo problema in modo che gli agenti di intelligenza artificiale possano lavorare insieme su compiti diversi.
Il ruolo crescente di AI sul lavoro – con o senza persone
Nel suo lavoro, Hubert ha affermato di utilizzare agenti di intelligenza artificiale per aiutarlo a scrivere offerte di lavoro, analizzare le applicazioni di lavoro e le recensioni dei clienti e altre attività di risparmio nel tempo.
“Ci siamo dati la possibilità di fare qualcosa che non avrei avuto il tempo di fare diversamente, e firmo ancora ogni lettera di offerta che esce”, ha detto.
Tuttavia, gli agenti AI e AI sono relativamente nuovi e tendono ancora a commettere errori. Ad esempio, in un recente Esperimento antropicoun chatbot AI accusato di gestire un piccolo negozio ha perso denaro e informazioni fabbricate.
“Claudio (il negozio di intelligenza artificiale) era abbastanza bravo in alcune cose, come identificare i fornitori di nicchia, ma piuttosto cattivi in altre cose importanti, come fare un profitto. Abbiamo imparato molto e non vediamo l’ora della fase successiva di questo esperimento”, ha detto a Euronews Guillaume Princen, capo dell’Europa, Medio Oriente e Africa.
Il progetto con Dust “arriva con molta potenza, [and] Viene fornito con molte responsabilità “, ha detto.
Un altro “problema difficile da rompere”, ha detto Princen, è determinare chi è in colpa se un agente di intelligenza artificiale fa qualcosa di sbagliato: la società di intelligenza artificiale o l’organizzazione che utilizzano gli strumenti?
“Comprendere chi è responsabile quando un agente fa una cosa suona facile in superficie, ma diventa sempre più sfocata”, ha detto.
In alcuni casi, gli agenti di intelligenza artificiale potrebbero agire come “gemello digitale” di qualcuno, ha detto, mentre altre volte potrebbero agire per conto di una persona, una squadra o una compagnia specifiche. La maggior parte delle aziende non ha deciso dove atterrano.
“Tendiamo a lavorare con aziende molto in rapido movimento, ma ancora su quello, ci stiamo rendendo conto che c’è un po ‘di educazione da fare”, ha detto Princen.
Image:Getty Images