App "Spogliatoio": lo scandalo che travolge Apple e Google. Milioni di download per le app che denudano le foto con l'IA

Una recente inchiesta del Tech Transparency Project ha svelato un universo sommerso e inquietante presente negli store digitali di Apple e Google. Decine di applicazioni, mascherate da innocui editor di foto, permettono in realtà di "spogliare" digitalmente le persone ritratte, generando deepfake a sfondo sessuale. Un business da milioni di dollari che solleva seri interrogativi sulla sicurezza e la responsabilità dei due colossi tecnologici.
La notizia

Ciao a tutti amici lettori! Oggi parliamo di un argomento che sta facendo tremare i polsi ai giganti della tecnologia, Apple e Google, e che dovrebbe farci riflettere tutti sull'uso, e l'abuso, dell'intelligenza artificiale. Immaginate di scattare una foto con un amico, un parente o il vostro partner e di scoprire che quell'immagine, in pochi click, può essere trasformata in un contenuto pornografico senza il vostro consenso. Sembra la trama di un film distopico, vero? Purtroppo, è la cruda realtà svelata da un'inchiesta che ha dell'incredibile.

L'inchiesta che ha scoperchiato il vaso di Pandora

A lanciare l'allarme è stato il Tech Transparency Project (TTP), un'organizzazione no-profit che, come un vero e proprio segugio digitale, monitora le mosse delle grandi aziende tecnologiche. Il loro ultimo rapporto è una vera e propria bomba: decine di applicazioni disponibili sull'App Store di Apple e sul Google Play Store, definite "nudify" o "undress" app, consentono di manipolare fotografie per rimuovere digitalmente i vestiti dalle persone. Stiamo parlando di software basati su intelligenza artificiale che, in pochi istanti, possono generare immagini di nudo non consensuali o inserire volti di persone reali in video pornografici preesistenti.

I numeri emersi dal rapporto sono a dir poco sconcertanti. Il TTP ha identificato inizialmente oltre 100 di queste app sparse tra i due store. Queste applicazioni, insieme, avrebbero generato la cifra astronomica di circa 122 milioni di dollari di entrate e sarebbero state scaricate ben 483 milioni di volte. Un business oscuro e redditizio che prospera nell'ombra, sfruttando la curiosità e, purtroppo, le cattive intenzioni di alcuni utenti.

Come funzionano queste app e perché sono così pericolose?

Il meccanismo è di una semplicità disarmante, ed è proprio questo a renderlo così pericoloso. L'utente carica una foto di una persona vestita e l'algoritmo di intelligenza artificiale dell'applicazione la elabora per creare una versione "svestita" della stessa. Il risultato è un deepfake, ovvero un'immagine o un video sintetico ma estremamente realistico, che può essere usato per scopi denigratori, per ricatti (la cosiddetta sextortion) o semplicemente per violare la privacy e la dignità di una persona.

Il vero scandalo, però, non risiede solo nell'esistenza di queste app, ma nel ruolo che Apple e Google avrebbero avuto nella loro diffusione. Secondo una successiva indagine del TTP, i due colossi non solo avrebbero ospitato queste app, ma i loro stessi sistemi di ricerca e pubblicità avrebbero attivamente indirizzato gli utenti verso di esse. In pratica, cercando termini come "nudify" o "deepnude", gli store non solo mostravano le app pertinenti, ma in alcuni casi le promuovevano tramite annunci pubblicitari e suggerimenti di ricerca automatici.

Un problema di sicurezza per tutti, anche per i minori

Uno degli aspetti più allarmanti della vicenda riguarda la classificazione di queste applicazioni. Molte di esse, infatti, erano contrassegnate con l'etichetta "E" (Everyone), ovvero "Per tutti", risultando quindi teoricamente accessibili e scaricabili anche da un pubblico di minori. Questa leggerezza nella classificazione espone i più giovani a rischi enormi, in un'epoca in cui, purtroppo, gli scandali legati a deepfake a sfondo sessuale nelle scuole sono in aumento.

Katie Paul, direttrice del Tech Transparency Project, ha usato parole dure, dichiarando a Bloomberg che "le aziende non effettuano un'adeguata revisione di queste app, continuando ad approvarle e a trarne profitto". Una critica pesante, che suggerisce come la ricerca del profitto possa talvolta prevalere sulla tutela e la sicurezza degli utenti.

La reazione di Apple e Google e il precedente di "Grok"

Messe di fronte alle prove schiaccianti del rapporto, sia Apple che Google hanno agito. Entrambe le aziende hanno confermato di aver rimosso la maggior parte delle applicazioni segnalate dal TTP. Apple, in particolare, ha dichiarato di aver rimosso 15 delle app segnalate e di aver contattato gli sviluppatori di altre per risolvere le violazioni, bloccando inoltre diversi termini di ricerca. Anche Google ha affermato di aver sospeso diverse app per violazione delle sue policy.

Questa vicenda si inserisce in un contesto più ampio di preoccupazione per l'uso malevolo dell'IA generativa. Non molto tempo fa, la Commissione Europea ha avviato un'indagine formale nei confronti di Grok, il chatbot di intelligenza artificiale integrato nel social network X (ex Twitter) di Elon Musk. L'accusa? La capacità di creare deepfake a sfondo sessuale, anche con soggetti minori, sollevando un polverone mediatico e legale a livello internazionale.

Conclusione: una riflessione necessaria

Dal mio punto di vista, la vicenda delle app "nudify" è un campanello d'allarme che non possiamo più ignorare. Ci dimostra come la tecnologia, se non governata da un'etica solida e da regole chiare, possa trasformarsi in un'arma pericolosa. Non si tratta di demonizzare l'intelligenza artificiale, che ha potenzialità straordinarie in tantissimi campi, ma di pretendere maggiore responsabilità da parte di chi sviluppa e, soprattutto, distribuisce questi strumenti. I giganti come Apple e Google hanno un potere immenso, e con esso una responsabilità ancora più grande: quella di proteggere i propri utenti, specialmente i più vulnerabili. La rimozione delle app è un primo passo, ma è evidente che serve un cambio di passo culturale e un sistema di controlli molto più severo e proattivo. La dignità e la sicurezza delle persone non possono essere una variabile negoziabile sull'altare del profitto.