Grok, l'IA di Elon Musk, di nuovo nella bufera: disinformazione e caos sulla sparatoria di Bondi Beach

L'intelligenza artificiale di X, Grok, è finita ancora una volta sotto i riflettori per aver diffuso informazioni palesemente false e fuorvianti riguardo alla tragica sparatoria di Bondi Beach in Australia. Tra scambi di persona, confusione tra eventi e risposte surreali, la credibilità del chatbot di Elon Musk vacilla pericolosamente, sollevando seri interrogativi sulla sua affidabilità.
La notizia

Amici lettori, tenetevi forte perché oggi parliamo di un argomento che sembra uscito da un film di fantascienza, ma che purtroppo è la cronaca dei nostri giorni. Avete presente Grok, l'intelligenza artificiale sviluppata da xAI di Elon Musk e integrata su X (l'ex Twitter)? Bene, sembra che ultimamente stia attraversando una sorta di "crisi d'identità", fornendo risposte che definire confusionarie è un eufemismo. L'ultimo, clamoroso scivolone riguarda la tragica sparatoria avvenuta a Bondi Beach, in Australia, un evento drammatico che ha scosso l'opinione pubblica mondiale. Invece di fornire informazioni chiare e precise, Grok ha generato un caos informativo senza precedenti.

Un eroe scambiato per un altro (e non solo)

Il punto centrale della questione ruota attorno alla figura di Ahmed al Ahmed, un uomo di 43 anni diventato un eroe per aver coraggiosamente disarmato uno degli attentatori. Un gesto eroico, ripreso in un video diventato virale, che meritava di essere raccontato con accuratezza. E invece, cosa fa Grok? In un cortocircuito informativo, ha scambiato l'identità di Ahmed con quella di Alexander Lobanov, un 32enne rapito da Hamas il 7 ottobre 2023. Un errore gravissimo, che mescola due contesti drammatici e completamente slegati tra loro.

Ma non è finita qui. Le "allucinazioni" dell'IA, come vengono tecnicamente chiamati questi errori, sono state molteplici e a dir poco surreali:

  • In un caso, ha identificato la sparatoria di Bondi Beach con un'altra avvenuta presso la Brown University nel Rhode Island, Stati Uniti.
  • In un altro, ha confuso il luogo del crimine con gli eventi bellici a Gaza.
  • Ha persino sostenuto che il video dell'eroico gesto di Ahmed fosse in realtà un vecchio filmato virale di un uomo che si arrampicava su una palma in un parcheggio, mettendo in dubbio l'autenticità della scena.
  • Come se non bastasse, ha diffuso la notizia falsa, proveniente da un sito apparentemente creato ad hoc con l'IA, che l'eroe fosse un informatico australiano inesistente di nome Edward Crabtree.

La risposta di xAI: "Bugie dei media tradizionali"

Di fronte a un disastro comunicativo di tale portata, ci si aspetterebbe una presa di posizione chiara, delle scuse o almeno una spiegazione tecnica da parte di xAI, l'azienda che sviluppa Grok. E invece, la risposta fornita a una richiesta di informazioni da parte di una testata giornalistica è stata a dir poco spiazzante: "le bugie dei media tradizionali". Un atteggiamento che, anziché placare le polemiche, rischia di alimentarle ulteriormente, gettando ombre sulla trasparenza e sulla volontà dell'azienda di affrontare i problemi del suo prodotto.

Un "vizio" di famiglia? I precedenti di Grok

Purtroppo, non è la prima volta che Grok finisce al centro delle polemiche. Già in passato, il chatbot di Musk era stato accusato di aver diffuso informazioni false sull'Olocausto e persino elogi nei confronti di Hitler. Questi episodi, uniti al recente caso di Bondi Beach, dipingono un quadro preoccupante sull'affidabilità di questa tecnologia, specialmente quando si tratta di gestire notizie sensibili e in tempo reale. La tendenza a "inventare" informazioni o a mescolare contesti diversi è un problema noto nei modelli linguistici di grandi dimensioni (LLM), ma la frequenza e la gravità degli errori di Grok su temi così delicati sollevano più di una perplessità.

Conclusione: un campanello d'allarme per il futuro dell'informazione

Dal mio punto di vista, la vicenda di Grok è un potente campanello d'allarme. L'intelligenza artificiale ha un potenziale enorme, ma non possiamo e non dobbiamo delegare ad essa il compito di informarci senza un adeguato controllo e una solida etica di base. Episodi come questo dimostrano che la strada per avere IA veramente affidabili e imparziali è ancora lunga e tortuosa. La risposta evasiva di xAI è forse l'aspetto più preoccupante: negare l'evidenza e attaccare i media non è la soluzione. Serve maggiore responsabilità, trasparenza e un serio impegno per correggere questi difetti che, in un'era di disinformazione dilagante, possono avere conseguenze molto serie. La tecnologia deve essere uno strumento al servizio della verità, non un generatore di caos. E al momento, Grok sembra essere più incline alla seconda opzione.