Ciao a tutti amici lettori! Oggi parliamo di un argomento che sta facendo molto discutere: l'intelligenza artificiale applicata ai social network e, in particolare, la sua capacità di modificare le immagini. Se frequentate X (il fu Twitter), avrete sicuramente sentito parlare di Grok, il chatbot con IA generativa di Elon Musk che, tra le altre cose, può alterare le foto caricate sulla piattaforma. Una funzione che ha scatenato un vero e proprio putiferio.
All'inizio dell'anno, infatti, la rete è stata invasa da casi di abusi gravissimi: immagini di persone reali, spesso donne e minori, modificate per creare nudità non consensuali o addirittura materiale pedopornografico. Una situazione inaccettabile che ha messo X con le spalle al muro, pressata dalle autorità di regolamentazione di tutto il mondo, Unione Europea in testa.
La risposta di X: un interruttore anti-modifica
Di fronte a questa ondata di critiche e scandali, X ha finalmente deciso di correre ai ripari, introducendo una nuova opzione nella sua app per iOS. Si tratta, in sostanza, di un interruttore che permette agli utenti di "bloccare le modifiche da parte di Grok". L'idea è semplice: attivando questa funzione, si dovrebbe impedire a terzi di usare il chatbot per manipolare le proprie foto. Una mossa che, a prima vista, sembra un passo importante verso la tutela della privacy e il controllo sui propri contenuti.
Inizialmente, in risposta alle polemiche, X aveva bloccato la modifica generativa per gli account gratuiti, lasciandola però accessibile agli abbonati a pagamento. Questa nuova opzione, quindi, si presenta come un ulteriore livello di protezione. Ma è davvero così efficace come sembra?
Un cerotto su una ferita aperta: i limiti della nuova funzione
Purtroppo, come spesso accade in questi casi, la realtà è un po' più complicata. I primi test, condotti da esperti e testate come The Verge, hanno messo in luce una serie di limiti che rendono questo strumento tutt'altro che una soluzione definitiva. Vediamo insieme quali sono i punti deboli:
- Difficile da trovare: La prima criticità è la sua posizione. L'opzione non si trova nelle impostazioni generali di privacy, dove sarebbe logico cercarla. Per attivarla, bisogna entrare negli strumenti di modifica di un'immagine che si sta per caricare, toccare l'icona a forma di pennello e poi selezionare un'icona a forma di bandiera. Un percorso poco intuitivo che rischia di sfuggire alla maggior parte degli utenti.
- Protezione parziale: Il blocco non è totale. La funzione impedisce ad altri utenti di menzionare l'account di Grok (@Grok) in una risposta diretta al tuo post per chiedere una modifica dell'immagine. Questo era il metodo che aveva causato le polemiche iniziali, ma non è l'unico modo per alterare una foto.
- Facilmente aggirabile: Qui arriva la nota dolente. Come sottolineato da diversi test, aggirare la protezione è un gioco da ragazzi. Ad esempio, è sufficiente che un utente salvi la tua foto sul proprio dispositivo e la ricarichi in una nuova conversazione per poterla modificare liberamente con Grok. Oppure, ancora più semplicemente, si può tenere premuto sull'immagine "protetta" per far apparire l'opzione "Modifica immagine con Grok", che apre la foto direttamente nel chatbot senza alcun blocco.
- Solo su iOS e solo per i nuovi post: Al momento, la funzione è disponibile solo sull'app per iOS e non sulla versione web di X. Inoltre, non è retroattiva: non può essere applicata ai contenuti che hai già pubblicato in passato.
Un problema più grande dell'editing diretto
La questione sollevata da Grok va ben oltre la semplice modifica di una foto in un thread. Il fenomeno dei deepfake non consensuali è un problema sociale e giuridico enorme, che mette a rischio la reputazione e la dignità delle persone. La facilità con cui oggi è possibile creare contenuti falsi ma estremamente realistici rappresenta una minaccia concreta, utilizzata per diffamazione, revenge porn, truffe e disinformazione. Le leggi attuali, in Italia e nel mondo, faticano a tenere il passo con la velocità dell'innovazione tecnologica, lasciando spesso le vittime con pochi strumenti di tutela.
Conclusione: un passo avanti o solo fumo negli occhi?
A mio parere, questa nuova funzione di X è un tentativo, forse un po' goffo e tardivo, di rispondere a una pressione mediatica e normativa diventata insostenibile. È un segnale che l'azienda riconosce l'esistenza di un problema, e questo è già qualcosa. Tuttavia, l'implementazione attuale è talmente debole e facile da aggirare da sembrare più una mossa di facciata che una vera e propria soluzione.
Finché la protezione sarà così limitata e nascosta, il rischio di abusi rimarrà altissimo. Servono misure più drastiche e integrate a livello di piattaforma: controlli più efficaci, opzioni di privacy chiare e accessibili a tutti, e una politica di tolleranza zero verso chi utilizza l'IA per creare contenuti dannosi. La strada per un uso etico e responsabile di queste tecnologie è ancora lunga, e questo piccolo interruttore, purtroppo, non basta ad accorciarla.
