La legislazione sull’intelligenza artificiale è osteggiata da molte aziende tecnologiche.
La legge della California volta a ridurre i rischi dell’intelligenza artificiale (IA) è stata approvata mercoledì dalla camera legislativa inferiore dello Stato.
La proposta richiederebbe alle aziende di testare i propri modelli e di rendere pubblici i propri protocolli di sicurezza.
L’obiettivo è impedire che i modelli vengano manipolati per, ad esempio, distruggere la rete elettrica dello Stato o contribuire alla costruzione di armi chimiche, scenari che, secondo gli esperti, potrebbero essere possibili in futuro, dati i rapidi progressi del settore.
La prima normativa nazionale sulla sicurezza dell’intelligenza artificiale potrebbe aprire la strada alla regolamentazione di questa tecnologia negli Stati Uniti.
La misura è stata approvata per un soffio dall’Assemblea della California mercoledì e necessita del voto finale del Senato prima di raggiungere la scrivania del governatore.
Il governatore della California, Gavin Newsom, avrà tempo fino alla fine di settembre per decidere se firmare la proposta di legge, tra le centinaia sottoposte al voto questa settimana, trasformarla in legge, porre il veto o consentirne la trasformazione in legge senza la sua firma.
I sostenitori hanno affermato che ciò avrebbe stabilito alcune delle prime necessarie regole di sicurezza di base per i modelli di intelligenza artificiale su larga scala negli Stati Uniti.
Il disegno di legge è rivolto ai sistemi che richiedono più di 100 milioni di $ (90 milioni di €) in dati per l’addestramento. Nessun modello di IA attuale ha raggiunto quella soglia.
OpenAI, Google e Meta si sono opposte alla legge, ma la società di intelligenza artificiale Anthropic ha affermato che i benefici della legge “probabilmente superano i costi”.
La California ospita 35 delle 50 principali aziende di intelligenza artificiale al mondo e potrebbe presto implementare strumenti di intelligenza artificiale generativa per affrontare, tra le altre cose, la congestione autostradale e la sicurezza stradale.
Newsom, che all’inizio dell’estate si è rifiutato di esprimere il proprio parere sulla misura, aveva messo in guardia contro un’eccessiva regolamentazione dell’intelligenza artificiale.
Image:Getty Images