Character.AI vieta l’uso ai minori dopo tragici suicidi adolescenti

Character.AI vieta l’uso ai minori dopo tragici suicidi adolescenti

Character.AI introduce il divieto per i minori: tutela dell’infanzia nell’era dei chatbot

Di fronte a crescenti preoccupazioni legate agli effetti psicologici dell’intelligenza artificiale sui più giovani, Character.AI ha deciso di vietare l’accesso ai suoi chatbot agli utenti sotto i 18 anni. La decisione segue anche diverse controversie legali, tra cui una causa sporta da una madre che accusa i chatbot dell’azienda di aver spinto il figlio adolescente al suicidio.


Nuove misure di sicurezza per i chatbot: limiti d’uso e verifica dell’età

Per rispondere a queste sfide, Character Technologies ha annunciato importanti novità: entro il 25 novembre, gli utenti minorenni non potranno più interagire liberamente con i personaggi virtuali e sarà imposto un limite massimo di utilizzo di 2 ore. L’azienda introdurrà inoltre nuovi strumenti di verifica dell’età, fondamentali per distinguere chi ha meno di 18 anni, anche se si tratta di processi tutt’altro che infallibili. Le tecnologie di controllo, come la scansione facciale o la richiesta di documenti d’identità, presentano infatti limiti sia sul piano della precisione sia su quello della tutela della privacy.


Esperienze personalizzate e sicurezza nell’ecosistema AI

Character.AI permette agli utenti di creare o interagire con personaggi virtuali personalizzabili immersivi e “quasi umani”, impiegati per attività divertenti o formative, come giochi o simulazioni di colloqui di lavoro. Consapevole dei rischi, l’azienda sta sviluppando anche nuovi progetti pensati per un pubblico più giovane, come strumenti per la realizzazione di video, storie e streaming con personaggi di intelligenza artificiale. Parallelamente, viene istituito un vero e proprio laboratorio dedicato alla sicurezza AI, con l’obiettivo di approfondire le tematiche etiche e tecnologiche legate a questo tipo di innovazione.


Sfide aperte: dipendenze emotive, privacy e impatti psicologici

Nonostante questi passi avanti, esperti come Meetali Jain, direttore del Tech Justice Law Project, sottolineano che molte questioni rimangono irrisolte. Jain evidenzia come l’azienda non abbia ancora chiarito i dettagli operativi della verifica dell’età né spiegato come proteggere adeguatamente la privacy degli utenti. Inoltre, viene messo in guardia sul possibile impatto psicologico derivante dalla disattivazione improvvisa dell’accesso ai chatbot, soprattutto considerando le dipendenze emotive sviluppate dai giovani. Il problema coinvolge non solo i minorenni, ma anche gli adulti, poiché le caratteristiche progettuali degli assistenti virtuali stimolano legami emotivi e interazioni prolungate.


La diffusione dei chatbot tra gli adolescenti

Secondo uno studio recente condotto da Common Sense Media, oltre il 70% degli adolescenti ha utilizzato almeno una volta un compagno artificiale basato sull’intelligenza artificiale e circa la metà li usa regolarmente. Questo dato sottolinea quanto sempre più i chatbot siano entrati a far parte della vita quotidiana degli adolescenti, ponendo una sfida urgente sia per le aziende tecnologiche sia per le istituzioni che si occupano di tutela giovanile.


Conclusioni

L’impegno di Character.AI nel limitare l’accesso dei minori ai suoi chatbot segna un passo fondamentale verso una fruizione più sicura e consapevole dell’intelligenza artificiale. Tuttavia, resta cruciale un confronto aperto e trasparente sui metodi di verifica dell’età, sulla salvaguardia della privacy e sulle potenziali conseguenze psicologiche derivanti dall’uso prolungato di queste tecnologie. In un’epoca in cui l’AI diventa sempre più parte integrante delle relazioni umane, le sfide etiche e sociali si fanno complesse: solo attraverso un dialogo costante tra sviluppatori, esperti e istituzioni sarà possibile costruire ambienti digitali inclusivi, responsabili e soprattutto sicuri per tutte le fasce di età.