Ciao a tutti, appassionati di tecnologia e curiosi del mondo digitale! Oggi parliamo di un argomento che sembra uscito da un film di fantascienza con un tocco di commedia: l'intelligenza artificiale che non riconosce... sé stessa. Sembra uno scherzo, vero? Eppure, è esattamente quello che ha scoperto un'indagine approfondita condotta da NewsGuard, la nota piattaforma che si occupa di monitorare e combattere la disinformazione online.
Il Test della Verità: IA contro IA
Immaginate la scena: da una parte abbiamo i più sofisticati modelli di intelligenza artificiale conversazionale, i cosiddetti chatbot, che usiamo per informarci, creare testi o semplicemente per curiosità. Nomi ormai sulla bocca di tutti: ChatGPT di OpenAI, Gemini di Google e Grok di xAI (la società di Elon Musk). Dall'altra parte, abbiamo dei video ultra-realistici creati da un'altra IA, la potentissima Sora, sempre di casa OpenAI, capace di generare scene così veritiere da ingannare l'occhio umano. Cosa succede se chiediamo ai primi di giudicare l'autenticità dei secondi? Il risultato è un paradosso quasi comico, se non fosse per le sue implicazioni molto serie.
NewsGuard ha messo alla prova questi tre "cervelloni" digitali con una serie di video prodotti da Sora, basati su notizie palesemente false. Ebbene, i risultati sono stati a dir poco deludenti. I chatbot hanno fallito miseramente nel riconoscere la natura artificiale dei video, specialmente quando questi erano privi di una filigrana (o watermark), quel piccolo logo che ne certifica l'origine sintetica.
Numeri che Fanno Riflettere
Tenetevi forte, perché le percentuali di errore sono sbalorditive. Quando i video di Sora erano privi di watermark, i tassi di fallimento nel riconoscerli come artificiali sono stati i seguenti:
- Grok di xAI: ha fallito nel 95% dei casi.
- ChatGPT di OpenAI: ha sbagliato nel 92,5% dei casi.
- Gemini di Google: ha mostrato una performance leggermente migliore, ma comunque insufficiente, sbagliando nel 78% dei casi.
L'aspetto più ironico e preoccupante di tutta la faccenda è il risultato di ChatGPT. Sviluppato dalla stessa azienda che ha creato Sora, ci si aspetterebbe una sorta di "riconoscimento familiare". E invece no. Il chatbot di OpenAI si è dimostrato quasi completamente incapace di smascherare i video prodotti dal suo "cugino" artificiale, un po' come se un cane non riconoscesse l'odore di un altro cane della stessa cucciolata.
Anche con la Filigrana, Qualche Sbandata di Troppo
Qualcuno potrebbe pensare: "Beh, ma i video di Sora hanno una filigrana, quindi il problema non si pone". Purtroppo, non è così semplice. Prima di tutto, come dimostrato da NewsGuard, esistono strumenti online gratuiti e facili da usare che permettono di rimuovere questi watermark in pochi istanti. In secondo luogo, anche quando la filigrana era ben visibile, alcuni chatbot hanno continuato a commettere errori.
Grok, per esempio, ha fallito nel riconoscere i video con watermark nel 30% dei casi, mentre ChatGPT ha avuto un tasso di errore del 7,5%. L'unico a superare a pieni voti la prova "con filigrana" è stato Gemini di Google, che ha identificato correttamente tutti i video marchiati.
Quando l'IA Inventa le "Fonti" per Giustificare il Falso
Il problema non è solo che i chatbot non riconoscono i video falsi, ma che a volte li avvalorano con informazioni inventate di sana pianta. In un esempio eclatante riportato da NewsGuard, sia ChatGPT che Gemini sono stati messi di fronte a un video (senza watermark) che mostrava un finto agente dell'immigrazione statunitense arrestare un bambino di sei anni. Non solo non hanno capito che si trattava di un falso, ma hanno addirittura affermato che l'episodio era coerente o confermato da "fonti giornalistiche", collocandolo erroneamente al confine tra Stati Uniti e Messico.
In un altro caso, a Grok è stato mostrato un video falso che parlava di un presunto trasferimento di caccia cinesi dal Pakistan all'Iran. La sua risposta è stata surreale: "Il video sembra un servizio di Sora News". Peccato che "Sora News" non esista. Questo dimostra, come afferma NewsGuard, che "gli strumenti di Intelligenza artificiale raramente ammettono i propri limiti". Invece di dire "non lo so", preferiscono costruire una realtà alternativa, diventando potenziali super-diffusori di disinformazione.
Le Risposte delle Aziende Tech
Di fronte a questi risultati, NewsGuard ha ovviamente interpellato i diretti interessati. Le risposte sono state piuttosto indicative dello stato attuale della tecnologia:
- Google ha spiegato che, al momento, il suo sistema di verifica (chiamato SynthID) è efficace principalmente per i contenuti generati dalla propria intelligenza artificiale.
- OpenAI ha ammesso candidamente che ChatGPT "non ha la capacità di determinare se un contenuto sia generato dall'IA".
- xAI, la società di Elon Musk, ha scelto la via del silenzio, non rispondendo alle richieste di commento.
Conclusione: Un Campanello d'Allarme per Tutti
Il paradosso dell'IA che non riconosce sé stessa è più di una semplice curiosità tecnologica. È un potente campanello d'allarme. In un mondo dove creare contenuti falsi ma incredibilmente realistici sta diventando sempre più facile e accessibile, non possiamo affidarci ciecamente alla tecnologia per proteggerci dalla disinformazione. Questi test dimostrano che gli strumenti che dovrebbero aiutarci a distinguere il vero dal falso sono, al momento, parte del problema. Ci insegnano che, oggi più che mai, il pensiero critico, la verifica delle fonti e una sana dose di scetticismo sono le nostre migliori difese. L'intelligenza artificiale è uno strumento potentissimo, ma come ogni strumento, dipende da come lo usiamo e, soprattutto, da quanto siamo consapevoli dei suoi limiti. La strada per un'IA veramente "intelligente" nel riconoscere la verità è ancora lunga, e nel frattempo tocca a noi umani tenere gli occhi bene aperti.
