Ciao a tutti! Oggi parliamo di un argomento che sta scuotendo il mondo del web e, in particolare, quello dell'informazione online. Avete presente quando cercate qualcosa su internet e, sempre più spesso, vi imbattete in risposte dirette fornite da un chatbot o da un'intelligenza artificiale? Comodo, vero? Forse un po' meno per chi, quei contenuti, li crea con fatica e professionalità . Un nuovo, allarmante studio sta mettendo in luce un fenomeno che potremmo definire quasi un "saccheggio" digitale: i bot basati sull'IA stanno letteralmente "raschiando" via i contenuti dai siti web, soprattutto quelli di notizie, per nutrire i loro algoritmi, con conseguenze potenzialmente devastanti.
La fotografia scattata dalla nuova edizione dello 'State of the Internet Report' della nota società tecnologica Akamai è a tinte fosche. I dati parlano chiaro e sono impressionanti: nel 2025, l'attività globale dei software automatizzati, meglio noti come bot, potenziati dall'intelligenza artificiale è schizzata alle stelle, con un aumento vertiginoso del 300%. E indovinate un po' qual è uno dei loro bersagli preferiti? Esatto, proprio il settore dei media e dell'editoria, che da solo assorbe il 13% di tutto il traffico generato da questi instancabili "raccoglitori" di dati.
Ma cosa significa "scraping" e perché è un problema così serio?
Immaginate un esercito di robottini invisibili che, giorno e notte, scandagliano ogni angolo del web per copiare e incollare informazioni. Questo è, in parole povere, lo 'scraping'. Letteralmente significa "raschiare", e l'obiettivo è proprio quello: raccogliere un'enorme quantità di dati e contenuti presenti online, gratuitamente. Questi dati vengono poi utilizzati per addestrare i modelli linguistici di grandi dimensioni (i famosi LLM), ovvero i cervelli che alimentano le intelligenze artificiali come ChatGPT e simili. Più dati di qualità "mangiano", più diventano intelligenti e precise nelle loro risposte.
Il problema è che questa attività , spesso condotta senza alcun permesso, sta mettendo in ginocchio i creatori di contenuti. Fornendo risposte dirette e complete all'interno delle loro chat, questi sistemi intelligenti rendono di fatto inutile per l'utente visitare la fonte originale della notizia. Se prima cercavamo "ultime notizie sulla politica" e cliccavamo su diversi link di testate giornalistiche, oggi la risposta ce la fornisce direttamente l'IA, riassumendo (e a volte plagiando) il lavoro altrui. Il risultato? Un crollo verticale del traffico verso i siti di informazione.
I numeri di una crisi annunciata
Se la sensazione era già nell'aria, i dati del report di Akamai e di altre ricerche confermano la gravità della situazione. Il cambiamento nel modo in cui accediamo alle informazioni sta avendo un impatto diretto e pesantissimo sui numeri e sui profitti dell'editoria. Pensateci: meno visite significano meno visualizzazioni per le pubblicità e meno probabilità di sottoscrivere abbonamenti, che sono le principali fonti di sostentamento per il giornalismo di qualità .
- Un recente studio del Reuters Institute aveva già previsto che l'intelligenza artificiale potrebbe ridurre il traffico verso i siti di notizie del 43% nell'arco di soli tre anni.
- Ma il report di Akamai cita una ricerca ancora più sconcertante di TollBit, che ha rilevato come nel quarto trimestre del 2024 i chatbot abbiano causato un crollo di circa il 96% del traffico proveniente da fonti esterne rispetto alle tradizionali ricerche su Google. Un dato spaventoso che "riduce drasticamente una parte importante di pubblico e una fonte di ricavi".
In pratica, i siti di notizie spendono risorse per produrre contenuti di valore, ma i frutti di questo lavoro vengono raccolti da altri, che li usano per i propri scopi commerciali senza riconoscere nulla alla fonte. Una situazione stigmatizzata persino da Wikipedia, che ha lanciato un appello alle grandi aziende tecnologiche per un uso più etico e rispettoso dell'intelligenza artificiale.
OpenAI: il "raschiatore" numero uno
Dal report emerge un protagonista indiscusso in questa corsa all'accaparramento di dati: OpenAI, la società guidata da Sam Altman che ha creato ChatGPT. Secondo Akamai, OpenAI ha generato il volume più elevato di traffico di bot IA indirizzato al settore dei media. E la cosa ancora più specifica è che, all'interno di questo enorme flusso di dati, le aziende editoriali hanno rappresentato ben il 40% di tutte le richieste effettuate dai sistemi della società tecnologica.
L'analisi mostra inoltre che gli strumenti dedicati alla raccolta dati costituiscono il 25% di tutta l'attività dei bot IA verso il settore media. All'interno di questo segmento, l'editoria è la vittima principale, con il 43% del traffico. A dominare la scena sono i cosiddetti 'training crawler', i programmi automatizzati specificamente progettati per addestrare le intelligenze artificiali. Questi rappresentano il 63% di tutti i bot IA che hanno preso di mira il settore dei media, e di questi, il 37% si è concentrato in modo specifico sull'editoria.
Un futuro incerto e la ricerca di soluzioni
Le parole di Patrick Sullivan, Chief Technology Officer Security Strategy di Akamai, riassumono perfettamente la situazione: "Il cambiamento fondamentale nel modo con cui si ottengono le informazioni ha un impatto sulle aziende che operano nel settore dell'editoria. I bot basati sull'IA stanno erodendo i flussi di ricavi principali come pubblicità e abbonamenti facendo aumentare, al contempo, i costi delle infrastrutture e riducendo la visibilità dei brand".
In sostanza, non solo gli editori vedono diminuire i loro guadagni, ma devono anche sopportare i costi aggiuntivi generati da questo traffico di bot che sovraccarica i loro server, senza trarne alcun beneficio. È una tempesta perfetta che rischia di spazzare via molte realtà editoriali, soprattutto quelle più piccole e indipendenti.
Conclusione: il mio punto di vista
Ci troviamo di fronte a un bivio cruciale per il futuro dell'informazione. L'intelligenza artificiale è uno strumento potentissimo, con un potenziale enorme per migliorare le nostre vite, ma il suo sviluppo non può avvenire a discapito della sostenibilità di un settore fondamentale per la democrazia come quello del giornalismo. Non si tratta di demonizzare la tecnologia, ma di regolamentarla. È indispensabile trovare un equilibrio, stabilire delle regole eque che permettano alle aziende tecnologiche di innovare, ma che allo stesso tempo riconoscano il valore del lavoro dei creatori di contenuti e garantiscano loro una giusta remunerazione. Accordi di licenza, partnership e un uso più etico dei dati potrebbero essere alcune delle strade da percorrere. Altrimenti, il rischio è di ritrovarci in un futuro con intelligenze artificiali incredibilmente "colte", ma senza più fonti originali, verificate e di qualità da cui attingere. E un mondo senza giornalismo affidabile è un mondo più povero e più vulnerabile.
