I regolatori statunitensi hanno chiesto a OpenAI come sta affrontando il potenziale per ChatGPT di generare dichiarazioni “false, fuorvianti, denigratorie o dannose” su persone reali.
Il proprietario di ChatGPTsocietĆ di intelligenza artificiale OpenAI, ĆØ ancora una volta sotto inchiesta da parte delle autoritĆ federali negli Stati Uniti, questa volta per la sua azione volta a impedire alla tecnologia rivoluzionaria di fornire agli utenti risposte sbagliate.
Dal suo lancio a novembre, molti hanno sottolineato che mentre ChatGPT può essere estremamente utile, a volte può anche dare risposte totalmente non correlate, false o incomplete.
OpenAI lo ha riconosciuto ChatGPT ĆØ tutt’altro che infallibile, spiegando che a volte può “allucinare” risultati e inventare fatti. Insomma, ChatGPT, come qualsiasi altra macchina o tecnologia, può sbagliare.
Ma i regolatori statunitensi sono ancora preoccupati.
La Federal Trade Commission (FTC) ha inviato questa settimana una lettera a OpenAI, come riportato per la prima volta dal Washington Post, chiedendo informazioni precise su come la societĆ affronta il potenziale rischio per ChatGPT ādi generare dichiarazioni su persone reali che sono false, fuorvianti, denigratorie o dannosoā.
Le autoritĆ di regolamentazione statunitensi affermano che la societĆ ha messo a rischio la reputazione personale e i dati, in contrasto con le leggi sulla protezione dei consumatori.
All’inizio di quest’anno, l’amministratore delegato di OpenAI Sam Altman ha messo in guardia i legislatori statunitensi dai rischi insiti in ChatGPT, affermando che “se questa tecnologia va male, può andare molto male”.
Ha invitato il governo a collaborare con la sua azienda per “impedire che ciò accada”.
Ma Altman ĆØ stato “deluso” dall’ultima indagine sulla societĆ . “Ć molto deludente vedere che la richiesta della FTC inizia con una fuga di notizie e non aiuta a creare fiducia”, ha scritto su Twitter.
āAbbiamo creato GPT-4 [the latest version of ChatGPT] oltre ad anni di ricerca sulla sicurezza e abbiamo trascorso più di 6 mesi dopo aver terminato l’addestramento iniziale per renderlo più sicuro e più allineato prima di rilasciarlo. Proteggiamo la privacy degli utenti e progettiamo i nostri sistemi per conoscere il mondo, non i privati”, ha continuato, aggiungendo che la societĆ continuerĆ a collaborare con la FTC per assicurarsi che ChatGPT sia “sicuro e pro-consumatore”.
Le risposte occasionalmente sbagliate di ChatGPT non sono l’unica cosa su cui la societĆ supportata da Microsoft verrĆ interrogata dalle autoritĆ statunitensi.
La FTC sta anche esaminando come l’azienda affronta la privacy dei dati e come ottiene i dati per addestrare e informare il suo chatbot AI.
In Aprile, L’Italia ha vietato l’uso di ChatGPT per motivi di privacy, e ripristinato solo dopo che sono state fornite ulteriori informazioni sulla sua politica sulla privacy. Ć stato inoltre aggiunto uno strumento per verificare l’etĆ degli utenti.
Image:Getty Images