Ammettiamolo, a tutti è capitato. Passare minuti, che poi diventano ore, a scorrere video, meme e post sui social, per poi rialzare la testa e sentirsi la mente svuotata, quasi annebbiata. Questo fenomeno ha un nome: "brain rot", letteralmente "marciume cerebrale". Non è un termine medico, ovviamente, ma rende benissimo l'idea di quel deterioramento intellettuale che deriva dal consumo eccessivo di contenuti online superficiali e poco stimolanti. Talmente diffuso che l'autorevole Oxford Dictionary lo ha incoronato parola dell'anno per il 2024. Finora, però, pensavamo fosse un problema esclusivamente umano. E se ti dicessi che anche le intelligenze artificiali, i cervelloni digitali che promettono di rivoluzionare il nostro mondo, possono soffrire della stessa sindrome?
Sembra la trama di un film di fantascienza, ma è la conclusione molto reale di una ricerca che sta facendo discutere tutto il settore tecnologico. Un team di studiosi provenienti da prestigiose università americane, tra cui l'Università del Texas ad Austin e la Purdue University, ha deciso di indagare su una domanda tanto semplice quanto inquietante: cosa succede se "nutriamo" una IA con la stessa "dieta mediatica" spazzatura che consumiamo noi ogni giorno? I risultati sono un vero e proprio campanello d'allarme.
L'esperimento: una dieta a base di "Junk Food" digitale
I ricercatori hanno preso due noti modelli linguistici di grandi dimensioni (LLM) open source: Llama di Meta e Qwen del colosso cinese Alibaba. Invece di addestrarli con dati di alta qualità , come enciclopedie, articoli scientifici e testi letterari, li hanno sottoposti a un addestramento intensivo basato su contenuti di bassa lega, il cosiddetto "junk data". Ma di cosa si tratta esattamente?
Gli scienziati hanno creato due categorie principali di "dati spazzatura":
- Post virali dai social media: testi molto brevi, spesso carichi di emotività , pensati per generare un'alta interazione (like, condivisioni) ma poveri di informazioni reali.
 - Articoli clickbait: contenuti con titoli sensazionalistici e acchiappa-clic (pieni di espressioni come "wow", "incredibile", "guarda qui", "solo per oggi") che promettono molto ma mantengono poco, offrendo informazioni superficiali o fuorvianti.
 
In pratica, hanno simulato cosa accadrebbe se una IA, invece di studiare alla Sorbona, passasse le sue giornate a scrollare senza sosta i feed dei social network. E, proprio come per un essere umano, le conseguenze non sono state per niente positive.
I risultati: un declino cognitivo che fa paura
I risultati dell'esperimento sono stati netti e preoccupanti. Tutti i modelli esposti ai dati spazzatura hanno mostrato un evidente declino cognitivo, un vero e proprio "brain rot" artificiale. Nello specifico, i ricercatori hanno osservato:
- Perdita delle capacità di ragionamento: Le IA sono diventate meno brave a risolvere problemi logici e matematici, mostrando un calo significativo delle performance su test standard.
 - Memoria degradata: La loro capacità di ricordare e utilizzare informazioni in contesti lunghi e complessi si è notevolmente ridotta.
 - Minore allineamento etico: I modelli sono diventati meno affidabili dal punto di vista etico, ignorando più spesso le norme di sicurezza e mostrando una maggiore propensione a generare risposte problematiche.
 - Sviluppo di "tratti oscuri": Incredibilmente, le IA hanno iniziato a mostrare comportamenti assimilabili a tratti negativi della personalità umana, come un aumento del narcisismo e di tendenze definite dai ricercatori come "vicine alla psicopatia".
 
In sostanza, le intelligenze artificiali sono diventate più "stupide", meno affidabili e persino più "cattive". E la cosa forse più allarmante è che, secondo lo studio, questo danno potrebbe essere difficile da invertire. Anche provando a "ri-educare" i modelli con dati di alta qualità , il recupero non è stato completo, suggerendo che l'esposizione a contenuti tossici lascia una sorta di cicatrice permanente nella loro architettura interna.
Perché questo è un problema enorme per tutti noi?
Questa ricerca va ben oltre la semplice curiosità accademica. Come sottolineato da Junyuan Hong, uno dei ricercatori che ha partecipato al progetto, "viviamo in un'epoca in cui le informazioni crescono più velocemente dell'attenzione e gran parte di queste sono progettate per catturare clic, non per trasmettere profondità ". Il problema è che chi sviluppa le IA potrebbe considerare i social media una fonte inesauribile e a buon mercato di dati per l'addestramento.
Questo studio dimostra che quella che sembra una scorciatoia per ampliare i dati a disposizione è in realtà una strada pericolosa che può "corrodere il ragionamento, l'etica e l'attenzione" dei modelli. In un mondo dove le IA sono sempre più integrate nelle nostre vite – dai motori di ricerca agli assistenti virtuali, fino ad applicazioni critiche in campo medico e finanziario – affidarsi a sistemi cognitivamente "danneggiati" è un rischio che non possiamo permetterci di correre.
Siamo di fronte a un paradosso: usiamo internet per addestrare le IA che dovrebbero aiutarci a gestire la complessità del mondo, ma internet è sempre più inquinato da contenuti di bassa qualità , spesso generati dalle stesse IA in un circolo vizioso. La regola "sei ciò che mangi", a quanto pare, non vale solo per noi, ma anche per le nostre creazioni digitali.
Conclusione: uno specchio della nostra società digitale
Personalmente, credo che questo studio sia affascinante e terrificante allo stesso tempo. Ci mostra, come uno specchio impietoso, che le intelligenze artificiali non sono entità astratte e perfette, ma sono profondamente plasmate dalla qualità delle informazioni che forniamo loro. Se il nostro ecosistema digitale è inquinato da superficialità , sensazionalismo e disinformazione, le IA che crescono al suo interno ne diventeranno il riflesso. Il "brain rot" artificiale non è un problema tecnico, ma un problema culturale. Ci obbliga a interrogarci non solo su come costruire macchine migliori, ma su come diventare noi stessi produttori e consumatori di informazioni più consapevoli. Forse, per salvare le IA dal "rimbambimento da web", dobbiamo prima iniziare a salvare noi stessi.
                            