Ammettiamolo, ci siamo cascati un po' tutti. Poniamo una domanda a ChatGPT, Gemini o a un altro dei tanti maghi digitali del momento e rimaniamo a bocca aperta di fronte a risposte articolate, precise, quasi... umane. Gli abbiamo chiesto di scrivere poesie, di creare ricette, di riassumere testi complessi e, sempre più spesso, di aiutarci a capire se una notizia sia vera o una bufala. E qui casca l'asino, o meglio, il chip.
Una nuova, importantissima ricerca italiana getta un'ombra inquietante su questa nostra crescente fiducia. Uno studio guidato da Walter Quattrociocchi, professore dell'Università Sapienza di Roma e uno dei massimi esperti di disinformazione, ha dimostrato che la capacità di giudizio di questi modelli di Intelligenza Artificiale (noti come LLM, Large Language Models) è, in realtà , solo un'apparenza. Un'illusione ben confezionata che potrebbe avere conseguenze molto serie.
La ricerca, pubblicata sulla prestigiosa rivista scientifica PNAS (Proceedings of the National Academy of Sciences), ha messo sotto torchio i principali modelli linguistici in circolazione, tra cui ChatGPT, Gemini, Llama, Deepseek e Mistral, confrontando le loro performance con quelle di valutatori umani, esperti inclusi. Il risultato? Sorprendente e preoccupante al tempo stesso.
Il trucco della plausibilità : bravi a imitare, non a capire
Cosa succede quando chiediamo a un'IA di valutare la credibilità di una notizia? Secondo lo studio del team della Sapienza, l'IA non mette in campo un vero e proprio ragionamento critico. Non va a verificare le fonti, non analizza il contesto, non fa quello che un buon giornalista o un fact-checker farebbe. Invece, fa qualcosa di molto più simile a un gioco di prestigio: simula il nostro modo di giudicare.
In pratica, questi modelli sono stati addestrati su una quantità spropositata di testi presi da internet. Hanno imparato ad associare certe parole, certi stili e certe strutture a concetti come "notizia affidabile" o "fake news". Come ha spiegato lo stesso Quattrociocchi, "i giudizi formulati dagli LLM sono plausibili ma disancorati dalla realtà fattuale". In altre parole, ci danno la risposta che suona giusta, non necessariamente quella che è giusta.
Facciamo un esempio pratico. Se una fake news è già stata ampiamente smentita online e discussa come tale in migliaia di articoli, l'IA sarà bravissima a riconoscerla, perché ha "imparato" l'associazione tra quel contenuto e l'etichetta "bufala". Ma di fronte a una notizia falsa nuova e più sofisticata, o a un tema complesso con sfumature diverse, il sistema entra in crisi, perché non ha un vero "pensiero" su cui basarsi.
I rischi concreti di una delega cieca
A questo punto, potresti pensare: "Vabbè, ma a me cosa cambia?". Cambia, e molto. Lo studio sottolinea un pericolo enorme: stiamo sostituendo la verità con la plausibilità . E questo, in un futuro non troppo lontano, potrebbe portarci a delegare alle macchine decisioni sempre più importanti, con rischi enormi.
Pensiamo a questi scenari:
- Informazione e giornalismo: Se le redazioni si affidassero ciecamente a un'IA per filtrare le notizie, potrebbero involontariamente diffondere disinformazione sofisticata o censurare punti di vista minoritari che non rientrano nei "pattern" dominanti che l'IA ha imparato.
 - Educazione: Studenti che usano questi strumenti per valutare le fonti per le loro ricerche potrebbero imparare un pensiero acritico, fidandosi di una macchina che scambia l'apparenza per sostanza.
 - Decisioni automatizzate: Immaginiamo sistemi che decidono in autonomia se un contenuto online viola delle policy, o peggio, che prendono decisioni in ambito legale o finanziario basandosi su analisi "plausibili" ma non fattuali.
 
Il messaggio chiave dei ricercatori è potente e chiaro: "Ciò che stiamo automatizzando non è il giudizio, ma la sua apparenza". Stiamo costruendo strumenti che sembrano pensare come noi solo perché ne simulano le tracce, non il processo profondo e critico che sta dietro.
Bias e pregiudizi: lo specchio (distorto) dei nostri dati
Un altro esperimento condotto dal team ha rivelato un'ulteriore criticità : i bias. I modelli linguistici hanno mostrato pregiudizi politici sistematici. Questo non perché siano "di parte", ma perché riflettono i pattern e le inclinazioni presenti nell'enorme mole di dati con cui sono stati addestrati. Se su internet certe posizioni politiche sono trattate più spesso con toni critici, l'IA impara questo schema e lo riproduce, senza alcuna comprensione del contesto.
Questo significa che, invece di essere uno strumento neutrale, l'IA può diventare un potente amplificatore di pregiudizi esistenti, penalizzando narrazioni che si discostano dal "mainstream" e appiattendo il dibattito pubblico.
Conclusione: un invito alla consapevolezza
Cosa ci lascia questo studio? Sicuramente non un rifiuto totale dell'Intelligenza Artificiale, che rimane uno strumento con potenzialità straordinarie. Ci lascia, però, un fondamentale invito alla cautela e alla consapevolezza. Non possiamo e non dobbiamo considerare questi modelli come oracoli infallibili. Sono dei potentissimi simulatori linguistici, degli incredibili pappagalli statistici, ma non possiedono (almeno per ora) una vera intelligenza critica, né una coscienza. La capacità di giudicare, di discernere il vero dal verosimile, di soppesare le sfumature e di applicare un pensiero critico resta, e deve restare, una prerogativa umana. Affidare questa responsabilità a una macchina, per quanto evoluta, non significa progredire, ma abdicare alla nostra stessa intelligenza. La prossima volta che chiederete qualcosa a un'IA, ricordatevi che la sua risposta sarà solo plausibile, non necessariamente vera.
                            