ChatGPT e Claude beccati a usare Grokipedia di Musk: l'IA si abbevera a fonti controverse?

Clamoroso nel mondo dell'intelligenza artificiale: una recente inchiesta del Guardian rivela che ChatGPT di OpenAI e Claude di Anthropic avrebbero utilizzato come fonte Grokipedia, l'enciclopedia online di Elon Musk. Una scoperta che solleva non poche preoccupazioni sulla diffusione di disinformazione e sull'affidabilità delle risposte fornite dai chatbot più famosi al mondo.
La notizia

Ciao a tutti, appassionati di tecnologia e curiosi del mondo digitale! Oggi parliamo di un argomento che sta facendo tremare i polsi ai giganti dell'intelligenza artificiale e che dovrebbe farci riflettere tutti. Immaginate di chiedere al vostro fidato assistente AI un'informazione e scoprire che la sua fonte è una sorta di "cugino" controverso e decisamente di parte di Wikipedia. È esattamente quello che sembra essere successo con ChatGPT e Claude, i due chatbot che stanno sulla bocca di tutti.

Una bomba sganciata da un'inchiesta del quotidiano britannico The Guardian ha rivelato che il modello più recente di OpenAI, GPT-5.2, avrebbe attinto a piene mani da Grokipedia, l'enciclopedia online creata da xAI, l'azienda di Elon Musk. E non si tratta di un caso isolato: anche Claude, sviluppato da Anthropic, sarebbe caduto nella stessa "trappola". Ma perché tutto questo scalpore? Cos'è esattamente Grokipedia e perché la sua presenza nelle fonti dei chatbot più avanzati è un problema?

Grokipedia: l'alternativa "senza filtri" a Wikipedia secondo Musk

Per chi non la conoscesse, Grokipedia è stata lanciata lo scorso ottobre da xAI con l'ambizioso obiettivo di diventare una concorrente diretta di Wikipedia. L'idea di fondo di Elon Musk era quella di creare un'enciclopedia libera da quella che lui definisce la "propaganda" e il "pregiudizio woke" di Wikipedia. A differenza dell'enciclopedia collaborativa che tutti conosciamo, Grokipedia non permette la modifica diretta da parte degli utenti. I contenuti sono generati principalmente dal suo modello di intelligenza artificiale, Grok, che si propone di offrire una visione "più veritiera" della realtà.

Peccato che, fin dal suo lancio, Grokipedia sia finita al centro di numerose critiche. Diverse analisi hanno evidenziato come i suoi contenuti tendano a promuovere narrazioni di destra e a dare spazio a teorie del complotto e informazioni non verificate. Pensate che ricercatori della Cornell University, in uno studio, hanno trovato al suo interno citazioni a siti web neonazisti come Stormfront e a un'infinità di fonti considerate di "bassa credibilità". Altre inchieste hanno mostrato come Grokipedia tenda a presentare in luce positiva figure dell'estrema destra e a diffondere disinformazione su temi caldi come il cambiamento climatico, i vaccini e persino la negazione dell'Olocausto.

I casi specifici: dall'Iran ai negazionisti dell'Olocausto

L'indagine del Guardian ha portato alla luce esempi concreti e preoccupanti. Stando ai loro test, ChatGPT avrebbe citato Grokipedia almeno nove volte per rispondere a più di una dozzina di domande. Gli argomenti erano tutt'altro che banali:

  • Legami tra il governo iraniano e la società di telecomunicazioni Mtn-Irancell: ChatGPT, basandosi su Grokipedia, avrebbe fornito affermazioni più forti e non verificate rispetto a quelle presenti su Wikipedia.
  • Biografia di Richard Evans: Il chatbot ha attinto a Grokipedia per domande relative a questo storico britannico, noto per essere stato un testimone chiave nel processo per diffamazione contro il negazionista dell'Olocausto David Irving. Anche in questo caso, le informazioni riportate erano state precedentemente smentite.

È interessante notare che, secondo il report, i chatbot non sembrano utilizzare Grokipedia per argomenti molto dibattuti e sotto gli occhi di tutti (come le elezioni americane o la pandemia), ma piuttosto per questioni più di nicchia o "oscure". Questo comportamento rende l'infiltrazione di queste fonti ancora più subdola e difficile da individuare per l'utente medio.

La difesa di OpenAI e il silenzio di Anthropic

Messa di fronte a queste scoperte, OpenAI ha risposto affermando che il suo modello GPT-5.2 effettua ricerche sul web attingendo a "un'ampia gamma di fonti e punti di vista pubblicamente disponibili". L'azienda ha aggiunto di applicare "filtri di sicurezza per ridurre il rischio di far emergere link associati a contenuti di severità critica" e di avere programmi per filtrare le informazioni di bassa credibilità. Una difesa che, tuttavia, non sembra aver convinto del tutto gli esperti di disinformazione, preoccupati per quello che viene definito "LLM grooming", ovvero il "condizionamento" dei modelli linguistici con informazioni false o tendenziose. Anthropic, dal canto suo, non ha rilasciato commenti sulla vicenda.

Conclusione: un campanello d'allarme per il futuro dell'informazione

Dal mio punto di vista, questa vicenda è un potentissimo campanello d'allarme. Ci dimostra, ancora una volta, che l'intelligenza artificiale non è una scatola magica che produce verità assolute, ma uno strumento che apprende dai dati con cui viene addestrato. Se questi dati provengono da fonti inquinate, inquinate saranno anche le risposte che riceveremo. Il fatto che colossi come OpenAI e Anthropic possano, anche involontariamente, veicolare informazioni provenienti da un'enciclopedia così controversa come Grokipedia, solleva questioni enormi sulla responsabilità e sulla trasparenza. Non basta dire di avere dei filtri; è necessario un controllo più rigoroso e una maggiore consapevolezza del potenziale danno che la disinformazione "certificata" da un'IA può causare. Come utenti, il nostro ruolo diventa ancora più cruciale: dobbiamo sviluppare un senso critico ancora più affinato, verificare sempre le fonti e non dare mai per scontato che la risposta di un chatbot sia la verità assoluta. La battaglia per un'informazione corretta e plurale, nell'era dell'IA, è appena iniziata.