L’intelligenza artificiale è diventata creativa nel 2022, generando testi, video e immagini impressionanti da zero. È altresì la nostra migliore previsione tecnologica per il 2023. Ma oltre ad essere fonte di fascino, è anche fonte di paura.
Oltre a scrivere saggi e creare immagini, l’intelligenza artificiale influenzerà ogni settore, dalle banche all’assistenza sanitaria, ma non è priva di pregiudizi, che possono rivelarsi dannosi.
Ecco come l’IA potrebbe evolversi nel 2023 e a cosa fare attenzione.
Chatbot e concorrenza
All’inizio del 2022, OpenAI ha lanciato DALL-E 2, una tecnologia di apprendimento profondo che produce immagini da istruzioni digitate. Google e Meta hanno quindi lanciato l’intelligenza artificiale in grado di produrre video da messaggi di testo.
Solo poche settimane fa, OpenAI ha lanciato ChatGPT 3, che si è catapultato sulla scena per produrre un testo eloquente e ben studiato al comando di una breve descrizione testuale.
Ora, la prossima cosa da seguire, che potrebbe uscire nel 2023, è ovviamente un aggiornamento: GPT-4. Come il suo predecessore, si dice che sia in grado di tradurre in altre lingue, riassumere e generare testo e rispondere a domande e includere un chatbot.
Secondo quanto riferito, avrà anche 1 trilione di parametri, il che significa che produrrebbe risposte più accurate ancora più velocemente.
Ma Elon Musk, uno dei primi creatori di OpenAI, ha già criticato ChatGPT per essersi rifiutato di rispondere a domande su argomenti specifici, come l’ambiente, a causa di come è stato programmato.
Un’altra cosa a cui prestare attenzione nel 2023 è proprio come gli altri giganti della tecnologia risponderanno alla concorrenza.
La direzione di Google ha emesso un “codice rosso” quando ChatGPT 3 è stato lanciato per preoccupazioni su come avrebbe avuto un impatto sul motore di ricerca di Google, secondo il New York Times.
L’intelligenza artificiale negli affari e nell’affrontare i problemi del mondo
Ma l’intelligenza artificiale ha anche il potenziale per svolgere un ruolo nella lotta al cambiamento climatico in quanto può aiutare le aziende a prendere decisioni sulla sostenibilità e ridurre le emissioni di carbonio molto più facilmente.
“Questa tecnologia può aiutare le aziende ei governi ad affrontare questa sfida ea rendere il mondo un posto migliore per noi dal punto di vista ambientale”, ha affermato Ana Paula Assis, General Manager di IBM per l’area EMEA.
Ha detto a Euronews Next che l’intelligenza artificiale consente un processo decisionale più rapido, che è particolarmente necessario con una popolazione che invecchia in quanto “mette molta pressione sulle competenze e sulle capacità che possiamo avere sul mercato”.
Assis ha affermato che questo è il motivo per cui l’applicazione dell’IA per l’automazione è ora diventata “urgente e imperativa”.
Ma l’intelligenza artificiale non trasformerà solo il business. Può anche aiutare i medici a fare una diagnosi in quanto raggruppa i dati per calcolare i sintomi.
Può anche aiutarti con operazioni bancarie e prestiti.
Il Credit Mutuel in Francia ha adottato l’intelligenza artificiale per supportare i propri consulenti clienti per fornire risposte migliori e più rapide ai clienti. Nel frattempo, NatWest nel Regno Unito sta aiutando i suoi clienti a prendere decisioni più informate sui mutui.
La domanda di IA nelle aziende è già aumentata nel 2022 e sembra destinata a crescere.
La ricerca IBM mostra che tra il primo e il secondo trimestre del 2022, c’è stato un aumento del 259% delle offerte di lavoro nel dominio dell’IA, ha affermato Assis.
IA ed etica
Poiché la tecnologia dovrebbe svilupparsi nel 2023, lo sono anche le domande più profonde dietro l’etica dell’IA.
Sebbene l’intelligenza artificiale possa aiutare a ridurre l’impatto dei pregiudizi umani, può anche peggiorare notevolmente il problema.
Amazon, ad esempio, ha smesso di utilizzare un algoritmo di assunzione dopo che si è scoperto che favoriva le applicazioni che utilizzavano parole come “catturato” o “educato”, parole che risultavano essere utilizzate maggiormente nei curriculum maschili.
Nel frattempo, ChatGPT non ti consentirà di scrivere un post sul blog razzista, affermando che “non è in grado di generare contenuti offensivi o dannosi”. Ma potrebbe se lo chiedessi in un altro modo che gira in punta di piedi intorno all’argomento.
Questo contenuto parziale o dannoso e razzista è possibile perché l’intelligenza artificiale è addestrata su centinaia di miliardi di parole e fonti tratte da siti Web e social media.
Un altro modo in cui l’IA può perpetuare i pregiudizi è attraverso sistemi che prendono decisioni basate su dati di addestramento passati, come decisioni umane distorte o disuguaglianze storiche e sociali. Ciò può anche essere dovuto a lacune nei dati disponibili, ad esempio, sistemi di riconoscimento facciale che potrebbero aver prelevato campionamenti principalmente da uomini bianchi.
La responsabilità di un’IA più equa e innocua, quindi, non ricade solo sulle aziende di intelligenza artificiale che creano gli strumenti, ma anche sulle aziende che utilizzano la tecnologia.
La ricerca IBM mostra che il 74% delle aziende intervistate ha affermato di non disporre ancora di tutte le capacità necessarie per garantire che i dati utilizzati per addestrare i sistemi di intelligenza artificiale non siano distorti.
Un altro problema è la mancanza di strumenti e framework per fornire alle aziende la capacità di spiegare ed essere trasparenti su come funzionano gli algoritmi.
“Queste sono davvero le capacità di incorporamento di cui abbiamo bisogno per vedere le aziende esibirsi al fine di fornire un utilizzo più equo, più sicuro e più sicuro dell’intelligenza artificiale”, ha affermato Assis.
Image:Getty Images