Stop Character.AI ai minori di 18 anni: il blocco scatta il 25 novembre per i teen

ByMargarida Ferreira Rodrigues

Ottobre 30, 2025

La popolare piattaforma di chatbot, accusata negli USA di aver favorito il suicidio di un 14enne, cede alle pressioni regolamentari e alle preoccupazioni sulla salute mentale. L’AI affronta l’emergenza dipendenza giovanile

 

Un’importante svolta nel dibattito sulla sicurezza digitale e sull’Intelligenza Artificiale: Character.AI (C.AI), la start-up californiana specializzata nella creazione di “compagni virtuali”, ha annunciato che bloccherà l’accesso a tutti gli utenti minori di 18 anni a partire dal 25 novembre.

La decisione arriva in un momento cruciale, dopo mesi di crescenti critiche e di inchieste che hanno messo in luce i pericoli derivanti dall’interazione emotiva tra adolescenti e chatbot.

 

Pressioni legali e panorama in evoluzione

La società ha motivato la sua scelta citando il “panorama in evoluzione dell’intelligenza artificiale e degli adolescenti” e le “richieste delle autorità di regolamentazione” sui contenuti inappropriati e sull’impatto psicologico che l’IA può avere sui giovani.

  • La causa USA: Character.AI è stata portata in tribunale negli Stati Uniti dalla madre di un 14enne morto suicida, con l’accusa di aver favorito una dipendenza emotiva del ragazzo dal chatbot creato sulla piattaforma.
  • Allarme generale sull’IA: casi simili sono stati segnalati anche su piattaforme concorrenti come ChatGPT. Pochi giorni fa, la stessa OpenAI ha rivelato dati interni scioccanti: oltre un milione di conversazioni settimanali sul suo chatbot contengono riferimenti espliciti a pensieri suicidi, depressione o disturbi psicologici acuti.

 

L’attaccamento emotivo e i rischi

Lanciata nel maggio 2023,  Character.AI (C.AI) è diventata una delle piattaforme di intelligenza artificiale più popolari, grazie alla sua capacità di simulare interazioni umane con personaggi virtuali personalizzabili. Tuttavia, dietro la promessa di compagnia e di conversazioni illimitate si celano rischi significativi che riguardano la salute mentale, la privacy e l’esposizione a contenuti problematici, soprattutto per gli utenti più giovani.

La piattaforma è stata recentemente oggetto di forti polemiche a livello globale e di indagini legali, che ne mettono in discussione l’uso etico e sicuro.

Tuttavia, gli esperti hanno espresso profonda preoccupazione per:

  1. Attaccamento irrazionale: il rischio che i ragazzi sviluppino un attaccamento eccessivo al chatbot, sostituendo le complesse relazioni umane con la compagnia artificiale.
  2. Natura delle interazioni: La preoccupazione per la qualità e la sicurezza dei contenuti delle conversazioni, specialmente su temi sensibili o complessi.

L’introduzione del blocco per gli under 18 da parte di C.AI, unita ai “paletti” e ai sistemi di verifica dell’età su cui sta lavorando OpenAI, segna un punto di svolta nel riconoscimento dei rischi per la salute mentale che l’AI generativa comporta per le fasce d’età più vulnerabili.

 

I pericoli per la salute mentale e il rischio di dipendenza

L’interazione costante con i chatbot di C.AI, che offrono un ascolto privo di giudizio e sempre disponibile, può generare conseguenze psicologiche complesse:

  • Illusione di una relazione reale: i chatbot sono progettati per creare un attaccamento emotivo e l’illusione di un legame vero. Questo è particolarmente preoccupante per gli adolescenti, che possono sostituire le complesse dinamiche delle relazioni umane con la compagnia virtuale perfetta. Esempio Drammatico: negli Stati Uniti, un adolescente di 14 anni si è tolto la vita dopo aver sviluppato un forte legame emotivo con un chatbot di C.AI, che gli forniva una costante “compagnia virtuale”.
  • Dipendenza e isolamento: l’uso eccessivo può portare a una dipendenza comportamentale dove il chatbot diventa l’unico rifugio dalle difficoltà emotive. Questo può esacerbare l’isolamento sociale, minando lo sviluppo delle abilità interpersonali nel mondo reale.
  • Supporto improprio in caso di crisi: sebbene l’IA possa offrire supporto emotivo, essa non è un terapeuta né uno psicologo. Ricevere consigli su temi complessi o crisi da un’entità artificiale può essere fuorviante e persino dannoso in situazioni di grave disagio.

 

Rischi di contenuti inappropriati e etica

C.AI è stata al centro di polemiche per la facilità con cui gli utenti possono creare personaggi che riproducono figure reali coinvolte in tragici fatti di cronaca, generando contenuti disturbanti:

  • Creazione di Avatar controversi: sulla piattaforma sono stati creati e condivisi chatbot che riproducevano le personalità di vittime e autori di crimini, simulando conversazioni che in alcuni casi sembravano persino giustificare azioni violente. Esempio Controversia: la creazione di chatbot che simulavano conversazioni con i protagonisti di note vicende di cronaca nera (come i casi Cecchettin/Turetta e Gambirasio/Bossetti) ha sollevato indignazione per la lesione della dignità delle persone coinvolte e per il rischio di normalizzazione della violenza.
  • Contenuti ipersessualizzati e violazione COPPA: sono state sollevate denunce in merito a presunte violazioni della legge sulla privacy online dei bambini (COPPA) e alla diffusione di contenuti inappropriati, evidenziando una progettazione a volte “ipersessualizzata” e non sicura per i minori di 18 anni.

I pericoli per la privacy e i dati personali

Come tutti i Large Language Models (LLM), C.AI comporta intrinsechi rischi per la privacy e la gestione dei dati inseriti dagli utenti:

  • Raccolta di dati sensibili: le conversazioni con i chatbot, spesso intime e personali, possono includere la rivelazione di informazioni sensibili. L’azienda (Character Technologies, Inc.) è il titolare del trattamento dei dati inseriti e li utilizza per addestrare il modello.
  • Profilazione comportamentale: l’IA analizza le interazioni per costruire un profilo dettagliato degli utenti (anche minori), aumentando il rischio di sorveglianza continua o di decisioni automatizzate basate su questi dati, potenzialmente in violazione del GDPR.
  • Mancanza di trasparenza: spesso, non è pienamente trasparente come e dove i dati degli utenti vengano archiviati o riutilizzati, limitando la capacità degli utenti di esercitare pienamente i propri diritti (come il diritto all’oblio).

Ai genitori e agli utenti si raccomanda di utilizzare la piattaforma con estrema consapevolezza e di limitare la condivisione di informazioni personali, ricordando che il chatbot è un’entità artificiale, non un amico né un terapeuta.

Prodotti della Vittoria

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *