Allarme Deepfake: Il Garante Privacy lancia un avvertimento su ChatGPT, Grok e le app che "spogliano" le persone. Ecco cosa rischi

Il Garante per la protezione dei dati personali ha emesso un importante avvertimento sull'uso di servizi di intelligenza artificiale come ChatGPT, Grok e altre piattaforme online in grado di creare contenuti falsi, inclusi i "deepnude". L'Autorità sottolinea i gravi rischi per la privacy e i diritti fondamentali, annunciando possibili sanzioni e un dialogo con le autorità europee per un intervento coordinato. Scopriamo insieme cosa sta succedendo e quali sono le implicazioni per tutti noi.
La notizia

Ciao a tutti, appassionati di tecnologia e non solo! Oggi affrontiamo un argomento che sta facendo molto discutere e che tocca da vicino la nostra vita digitale: l'intelligenza artificiale e i suoi lati più oscuri. Probabilmente avrete sentito parlare di ChatGPT, il chatbot che sa fare quasi tutto, o magari di Grok, l'IA sviluppata da X (il fu Twitter). Bene, tenetevi forte, perché il Garante per la protezione dei dati personali ha appena acceso un faro su queste tecnologie, e non per tesserne le lodi.

Con un provvedimento ufficiale, l'Autorità italiana ha lanciato un avvertimento molto serio a chiunque utilizzi questi strumenti per creare e diffondere contenuti manipolati, in particolare quelli che utilizzano immagini e voci di persone reali senza il loro permesso. Il riferimento è a una pratica odiosa e sempre più diffusa: quella di "spogliare" virtualmente le persone, creando immagini di nudo false (i cosiddetti deepnude) a partire da una semplice fotografia.

Il caso Clothoff e l'escalation del fenomeno

Per capire la gravità della situazione, dobbiamo fare un passo indietro a qualche mese fa. Nell'ottobre scorso, il Garante aveva già bloccato in Italia un'applicazione chiamata Clothoff. Il nome, purtroppo, è già tutto un programma ("cloth off", "vestiti via"). Questa piattaforma, con sede nelle Isole Vergini Britanniche, permetteva a chiunque, inclusi i minorenni, di generare immagini e video sessualmente espliciti partendo da foto reali, senza alcun tipo di consenso da parte delle persone ritratte. Un vero e proprio incubo digitale che l'Autorità ha prontamente interrotto per il nostro Paese, sottolineando gli "elevati rischi" per la dignità e la privacy, specialmente dei più giovani.

Il blocco di Clothoff, però, è stata solo la punta dell'iceberg. Il problema è che servizi simili continuano a spuntare come funghi, spesso integrati o resi facilmente accessibili da piattaforme di intelligenza artificiale molto più note e potenti, come appunto Grok e, in alcuni casi, anche ChatGPT. L'istruttoria avviata d'ufficio dal Garante ha infatti evidenziato come questi servizi rendano "estremamente agevole l'uso illecito di immagini e voci di terze persone".

Cosa dice il Garante: un avvertimento per tutti

Il messaggio del Garante è forte e chiaro, e si rivolge a due platee ben distinte: gli utenti e i fornitori di questi servizi.

Per gli utenti:

L'Autorità ci tiene a ricordare una cosa fondamentale: creare e, soprattutto, condividere questi contenuti falsi non è un gioco. Si tratta di azioni che possono avere conseguenze pesantissime. Nello specifico, si rischia di incorrere in:

  • Fattispecie di reato: Si entra a gamba tesa nel campo penale, con accuse che possono andare dalla diffamazione al trattamento illecito di dati.
  • Gravi violazioni della privacy: L'utilizzo dell'immagine o della voce di una persona senza il suo consenso è una palese violazione del Regolamento europeo sulla protezione dei dati (GDPR).
  • Sanzioni pesanti: Le violazioni del GDPR, come sappiamo, possono portare a multe salate.

In pratica, il Garante ci sta dicendo: "Attenzione, quello che fate con un click può rovinare la vita di una persona e avere serie ripercussioni legali anche per voi". Diffondere un'immagine deepnude tramite social media o anche solo in una chat di messaggistica privata è un atto illegale e dannoso.

Per i fornitori dei servizi AI:

Il Garante non si è limitato a bacchettare gli utenti. Ha anche richiamato all'ordine le aziende che sviluppano e mettono a disposizione queste tecnologie. Il concetto chiave è quello della "privacy by design", un principio fondamentale del GDPR. Significa che la tutela della privacy non deve essere un optional da aggiungere alla fine, ma un elemento integrato fin dalla primissima fase di progettazione e sviluppo di un'applicazione o di una piattaforma. Le aziende hanno la responsabilità di creare strumenti che non facilitino abusi e violazioni.

La collaborazione con l'Irlanda per il caso X/Grok

Un dettaglio interessante del provvedimento riguarda X e il suo servizio Grok. Poiché la sede principale europea di X si trova in Irlanda, la competenza primaria per le questioni di privacy spetta all'omologa Autorità irlandese (la DPC). Il Garante italiano ha fatto sapere di essere già in contatto e al lavoro con i colleghi irlandesi per affrontare la questione. Questo dimostra un approccio coordinato a livello europeo, essenziale quando si ha a che fare con colossi tecnologici globali. La collaborazione tra le autorità di protezione dati è uno dei pilastri del GDPR per garantire una tutela uniforme in tutta l'Unione Europea.

Non solo "deepnude": il rischio dei deepfake a 360 gradi

Anche se l'allarme è scattato principalmente per la creazione di nudi non consensuali, il problema dei deepfake è molto più ampio. Con questi strumenti è possibile creare video o audio in cui si fa dire o fare a una persona qualcosa che non ha mai detto o fatto, manipolandone la voce e le espressioni facciali. Questo, come sottolinea il Garante, può privare le persone della loro "autodeterminazione informativa", ovvero del diritto di decidere cosa far sapere di sé. Le implicazioni sono enormi e vanno dalla manipolazione dell'opinione pubblica alla creazione di truffe, fino al cyberbullismo.

Conclusione: un mio punto di vista

Credo che il provvedimento del Garante sia non solo necessario, ma sacrosanto. L'intelligenza artificiale è uno strumento potentissimo, con un potenziale immenso per migliorare le nostre vite. Ma come ogni strumento potente, può essere usato per fare del male. La facilità con cui oggi si possono creare contenuti falsi e realistici è disarmante e rappresenta una minaccia concreta alla dignità delle persone e alla fiducia stessa nella realtà. Non possiamo permettere che la tecnologia diventi un'arma per umiliare, diffamare o ingannare. L'avvertimento del Garante è un passo importante per sensibilizzare tutti noi: la responsabilità è sia di chi crea queste tecnologie, che deve progettarle in modo etico, sia di chi le usa, che deve comprenderne le implicazioni e i rischi. La libertà digitale non può e non deve mai diventare la licenza di violare i diritti e la dignità altrui. Speriamo che questo monito serva a promuovere un uso più consapevole e responsabile dell'IA, prima che sia troppo tardi.