I regolatori statunitensi hanno chiesto a OpenAI come sta affrontando il potenziale per ChatGPT di generare dichiarazioni “false, fuorvianti, denigratorie o dannose” su persone reali.
Il proprietario di ChatGPTsocietà di intelligenza artificiale OpenAI, è ancora una volta sotto inchiesta da parte delle autorità federali negli Stati Uniti, questa volta per la sua azione volta a impedire alla tecnologia rivoluzionaria di fornire agli utenti risposte sbagliate.
Dal suo lancio a novembre, molti hanno sottolineato che mentre ChatGPT può essere estremamente utile, a volte può anche dare risposte totalmente non correlate, false o incomplete.
OpenAI lo ha riconosciuto ChatGPT è tutt’altro che infallibile, spiegando che a volte può “allucinare” risultati e inventare fatti. Insomma, ChatGPT, come qualsiasi altra macchina o tecnologia, può sbagliare.
Ma i regolatori statunitensi sono ancora preoccupati.
La Federal Trade Commission (FTC) ha inviato questa settimana una lettera a OpenAI, come riportato per la prima volta dal Washington Post, chiedendo informazioni precise su come la società affronta il potenziale rischio per ChatGPT “di generare dichiarazioni su persone reali che sono false, fuorvianti, denigratorie o dannoso”.
Le autorità di regolamentazione statunitensi affermano che la società ha messo a rischio la reputazione personale e i dati, in contrasto con le leggi sulla protezione dei consumatori.
All’inizio di quest’anno, l’amministratore delegato di OpenAI Sam Altman ha messo in guardia i legislatori statunitensi dai rischi insiti in ChatGPT, affermando che “se questa tecnologia va male, può andare molto male”.
Ha invitato il governo a collaborare con la sua azienda per “impedire che ciò accada”.
Ma Altman è stato “deluso” dall’ultima indagine sulla società. “È molto deludente vedere che la richiesta della FTC inizia con una fuga di notizie e non aiuta a creare fiducia”, ha scritto su Twitter.
“Abbiamo creato GPT-4 [the latest version of ChatGPT] oltre ad anni di ricerca sulla sicurezza e abbiamo trascorso più di 6 mesi dopo aver terminato l’addestramento iniziale per renderlo più sicuro e più allineato prima di rilasciarlo. Proteggiamo la privacy degli utenti e progettiamo i nostri sistemi per conoscere il mondo, non i privati”, ha continuato, aggiungendo che la società continuerà a collaborare con la FTC per assicurarsi che ChatGPT sia “sicuro e pro-consumatore”.
Le risposte occasionalmente sbagliate di ChatGPT non sono l’unica cosa su cui la società supportata da Microsoft verrà interrogata dalle autorità statunitensi.
La FTC sta anche esaminando come l’azienda affronta la privacy dei dati e come ottiene i dati per addestrare e informare il suo chatbot AI.
In Aprile, L’Italia ha vietato l’uso di ChatGPT per motivi di privacy, e ripristinato solo dopo che sono state fornite ulteriori informazioni sulla sua politica sulla privacy. È stato inoltre aggiunto uno strumento per verificare l’età degli utenti.
Image:Getty Images