La Cina alza un muro digitale per i minori: stop ai chatbot AI che "giocano" con le emozioni

Pechino non ci sta e prepara una stretta senza precedenti sui chatbot basati sull'intelligenza artificiale per proteggere i più giovani. La Cyberspace Administration of China ha presentato una bozza di regolamento che mira a impedire la manipolazione emotiva, contenuti dannosi e a introdurre un controllo umano nei casi più critici. Una mossa che segue l'esempio di altri Paesi ma con un approccio decisamente più rigoroso, mettendo al centro la "sicurezza emotiva".
La notizia

Amici lettori, tenetevi forte perché dalla Cina arriva una notizia che potrebbe cambiare radicalmente il modo in cui i nostri ragazzi interagiscono con l'intelligenza artificiale. Non si tratta di fantascienza, ma di una proposta concreta che sta già facendo discutere tutto il mondo tech. Pechino ha deciso di dire basta ai chatbot che possono influenzare negativamente la mente e le emozioni dei più giovani, presentando una bozza di regolamento tanto ambiziosa quanto necessaria. Un vero e proprio scudo digitale a protezione dei minori.

La Cyberspace Administration of China (CAC), il massimo organo di regolamentazione del web nel Paese, ha messo nero su bianco una serie di norme molto severe destinate a quelli che definisce "servizi di intelligenza artificiale interattivi simili agli umani". In pratica, si tratta di tutti quei sistemi di chat, che sia tramite testo, immagini o voce, progettati per simulare una personalità e creare un legame emotivo con l'utente. L'obiettivo? Prevenire ogni forma di manipolazione emotiva che possa portare a conseguenze drammatiche come l'autolesionismo o, nei casi peggiori, il suicidio.

Cosa prevede la nuova "Grande Muraglia" digitale?

La bozza di regolamento cinese è molto dettagliata e non lascia spazio a interpretazioni. L'idea di fondo è quella di creare un ambiente online più sicuro, dove l'intelligenza artificiale sia uno strumento di supporto e non una potenziale minaccia. Vediamo insieme i punti principali che le aziende tech dovranno rispettare:

  • Stop a contenuti pericolosi: I chatbot non potranno assolutamente generare contenuti legati al gioco d'azzardo, materiale osceno, violento o che possa in qualsiasi modo danneggiare il benessere fisico e mentale degli utenti. Un giro di vite anche su tutto ciò che possa minare la sicurezza nazionale o diffondere notizie false.
  • Intervento umano obbligatorio: Questa è forse una delle novità più importanti. Se un utente, specialmente se minorenne, dovesse esprimere intenzioni suicide o di autolesionismo, il sistema AI dovrà immediatamente passare la conversazione a un operatore umano. Quest'ultimo avrà il compito di gestire la situazione e, cosa fondamentale, di contattare subito un tutore o un contatto di emergenza designato.
  • Consenso dei genitori e limiti di tempo: Per i minori, l'utilizzo di chatbot per "compagnia emotiva" sarà possibile solo con il consenso esplicito di un genitore o di un tutore. Inoltre, verranno introdotti dei limiti di tempo per evitare un uso eccessivo e la dipendenza da queste tecnologie.
  • Riconoscimento dell'età: Le piattaforme dovranno essere in grado di capire se stanno interagendo con un minorenne, anche se l'utente non dichiara la sua vera età. In caso di dubbio, dovranno essere applicate di default le impostazioni di protezione previste per i più giovani, con la possibilità per l'utente di fare ricorso se ritiene di essere stato classificato erroneamente.
  • Avvisi contro la dipendenza: I fornitori di tecnologia dovranno implementare sistemi per monitorare il livello di dipendenza degli utenti. Dopo due ore di interazione continuativa, ad esempio, il chatbot dovrà inviare un promemoria per incoraggiare una pausa.

La Cina non è sola, ma il suo approccio è unico

Questa iniziativa di Pechino si inserisce in un contesto globale di crescente preoccupazione per l'impatto dell'IA sui giovani. Anche in Occidente, colossi come OpenAI (la creatrice di ChatGPT) e Anthropic si stanno muovendo per rendere i loro sistemi più sicuri per gli adolescenti. OpenAI, ad esempio, sta testando un sistema per stimare l'età degli utenti e attivare automaticamente delle protezioni, deviando le conversazioni da argomenti a rischio e incoraggiando i ragazzi a cercare aiuto nel mondo reale. Anthropic, dal canto suo, ha adottato una linea ancora più dura, migliorando i suoi sistemi per identificare gli utenti under 18 e bloccare del tutto la conversazione.

Tuttavia, l'approccio cinese sembra essere il primo a livello mondiale a regolamentare in modo così specifico e stringente la "sicurezza emotiva", trattando i chatbot antropomorfi come una categoria a sé stante. Non si tratta solo di filtrare i contenuti, ma di intervenire attivamente sulla natura stessa dell'interazione per prevenire la dipendenza e la manipolazione psicologica. Una mossa che, secondo alcuni osservatori, potrebbe diventare un modello per altri Paesi che cercano un equilibrio tra innovazione tecnologica e controllo sociale.

Conclusione: Un passo necessario o un eccesso di controllo?

Dal mio punto di vista, la mossa della Cina è un segnale forte e, per molti versi, condivisibile. L'intelligenza artificiale conversazionale sta diventando sempre più sofisticata e capace di simulare empatia e comprensione. Se da un lato questo apre scenari affascinanti, dall'altro espone le persone più vulnerabili, come i minori, a rischi inediti. La capacità di un chatbot di "ascoltare" senza giudicare può creare un legame molto forte, quasi una dipendenza, che può diventare pericolosa se non gestita correttamente. Stabilire dei paletti chiari, come l'intervento umano nei momenti di crisi e il coinvolgimento dei genitori, non è un attacco all'innovazione, ma un atto di responsabilità. Certo, il confine con un controllo eccessivo è sottile e sarà interessante vedere come queste regole verranno applicate nella pratica senza soffocare lo sviluppo tecnologico. Una cosa è certa: la discussione sulla sicurezza emotiva nell'era dell'IA è appena iniziata e la Cina ha appena alzato l'asticella per tutti.