Ciao a tutti, amici lettori! Oggi parliamo di una vicenda che ha fatto tremare i polsi a molti nel nostro settore e che, ne sono certo, farà discutere anche voi. Immaginate di leggere una recensione su uno dei giornali più famosi al mondo, il New York Times, e di avere una strana sensazione di déja-vu. È esattamente quello che è successo a un lettore attento, che ha innescato un vero e proprio terremoto editoriale.
L'inizio della bufera: una recensione "troppo" familiare
La storia ha come protagonista Alex Preston, scrittore e giornalista freelance che collaborava con il NYT. Nel gennaio del 2026, il quotidiano pubblica una sua recensione del romanzo "Watching Over Her" dello scrittore francese Jean-Baptiste Andrea. Tutto normale, se non fosse che un lettore, con un occhio da detective, si accorge di alcune somiglianze davvero sospette con un altro articolo. La recensione di Preston, infatti, sembrava ricalcare in modo impressionante, a tratti quasi identico, un pezzo scritto mesi prima, nell'agosto del 2025, dalla critica Christobel Kent per il quotidiano britannico The Guardian.
Le somiglianze non erano semplici coincidenze o affinità di pensiero. Si parlava di frasi intere e interi paragrafi ripresi quasi parola per parola. Un esempio su tutti? La descrizione di un personaggio, definito da Kent "lazy Machiavellian Stefano" (il pigro machiavellico Stefano), che nella versione di Preston diventava "lazy, Machiavellian Stefano". Un cambiamento minimo, quasi un refuso, che però tradiva la "fonte" originale. Anche le conclusioni delle due recensioni erano sorprendentemente simili.
La scoperta e l'ammissione: "Ho commesso un grave errore"
Il lettore, insospettito, non ci pensa due volte e segnala la cosa alla redazione del New York Times. A quel punto, come è giusto che sia, scatta un'indagine interna. La redazione contatta Preston per chiedere spiegazioni e, messo alle strette, il giornalista crolla e ammette tutto. Ha confessato di aver utilizzato uno strumento di intelligenza artificiale per "aiutarlo" a scrivere la bozza della sua recensione. Il problema è che il software, a sua insaputa, aveva "pescato" a piene mani dalla recensione del Guardian, inserendo nel testo di Preston parti dell'articolo di Kent. Preston non si sarebbe accorto di queste "intrusioni" prima di inviare il suo pezzo al giornale.
Contattato dal Guardian, lo stesso Preston si è detto "profondamente imbarazzato" per quello che ha definito un "grave errore". Ha dichiarato: "Ho commesso un grave errore utilizzando uno strumento di intelligenza artificiale su una bozza di recensione che avevo scritto, e non sono riuscito a identificare e rimuovere il linguaggio sovrapposto da un'altra recensione che l'IA ha inserito". Si è scusato con il New York Times, con Christobel Kent e con il Guardian.
La reazione del New York Times: Tolleranza zero
La risposta del New York Times è stata immediata e inflessibile. Il quotidiano ha interrotto immediatamente ogni rapporto di collaborazione con Preston. In una nota ufficiale, il giornale ha dichiarato che "il ricorso all'intelligenza artificiale e l'uso di materiale non attribuito di un'altra fonte sono una chiara violazione dei nostri standard". Un segnale forte e chiaro che, nonostante il Times stia esplorando l'uso dell'IA in redazione per compiti come la sintesi di articoli o la scrittura di titoli SEO, l'integrità e l'originalità del lavoro giornalistico rimangono un pilastro non negoziabile.
A seguito dell'incidente, la recensione online di Preston è stata preceduta da una nota della redazione che avvisa i lettori dell'accaduto, spiegando la violazione degli standard editoriali e fornendo un link diretto alla recensione originale del Guardian. Una mossa di trasparenza doverosa, che però segna una macchia indelebile sulla reputazione del giornalista.
Riflessioni su un futuro incerto: IA e Giornalismo
Questo caso, amici, apre una voragine di domande sul nostro futuro. L'intelligenza artificiale è uno strumento potentissimo, capace di velocizzare il lavoro e di analizzare moli di dati impensabili per un essere umano. Ma cosa succede quando la usiamo non come un assistente, ma come un sostituto del pensiero critico e della creatività?
- Il rischio del "plagio algoritmico": Gli strumenti di IA generativa apprendono da enormi quantità di testi esistenti. Il rischio che ripropongano contenuti già pubblicati, come in questo caso, è altissimo se non c'è una supervisione umana attenta e critica.
- L'etica del critico: Il ruolo di un critico non è solo riassumere un'opera, ma interpretarla, contestualizzarla e offrire un punto di vista originale. È un dialogo con l'opera, con l'artista e con il pubblico. Può un'intelligenza artificiale, che non prova emozioni né ha un vissuto, replicare questo processo?
- La fiducia dei lettori: Il patto fondamentale tra un giornalista e chi lo legge si basa sulla fiducia. Il lettore deve poter credere che ciò che legge sia frutto di un lavoro onesto, originale e verificato. Episodi come questo minano alla base questa fiducia.
Conclusione: Un monito per tutti
Personalmente, credo che la vicenda di Alex Preston sia un campanello d'allarme che non possiamo ignorare. Demonizzare l'intelligenza artificiale sarebbe sciocco e anacronistico. È uno strumento che, se usato con intelligenza (quella umana, questa volta), può portare a grandi risultati. Il punto, però, è proprio questo: deve rimanere uno strumento, non il fine. La fretta, la superficialità o, peggio, la pigrizia intellettuale non possono essere giustificate dall'uso di una tecnologia. Il lavoro di ricerca, di analisi, di elaborazione e, soprattutto, di onestà intellettuale, deve rimanere al centro della nostra professione. Il "copia e incolla" era un problema anche prima dell'IA, ma ora ha un complice molto più potente e insidioso. Sta a noi, professionisti dell'informazione e lettori, mantenere alta l'asticella della qualità e dell'etica, per non rischiare di perdere l'anima stessa del giornalismo.
