Ciao a tutti, amici lettori! Oggi parliamo di un argomento che sta sulla bocca di tutti e che, ammettiamolo, un po' ci affascina e un po' ci spaventa: l'Intelligenza Artificiale. Nello specifico, ci tufferemo nel suo impiego in un campo delicatissimo, quello della medicina. Ci possiamo fidare di un "dottor chatbot" per una diagnosi? A quanto pare, la risposta non è così scontata e uno studio tutto italiano ci aiuta a fare chiarezza.
Immaginate di avere un dubbio sulla vostra salute. La prima cosa che molti di noi fanno, ancora prima di chiamare il medico, è cercare su Google. Da qualche tempo, a questa abitudine si è aggiunta la possibilità di "conversare" con un'intelligenza artificiale. Ma quanto sono affidabili queste risposte? Se lo sono chiesti anche un gruppo di ricercatori italiani, e quello che hanno scoperto è davvero sorprendente.
Lo studio che mette in guardia: quando l'IA sbaglia la diagnosi
Un team di ricerca guidato da Vincenzo Guastafierro, specializzando in Anatomia Patologica presso l'Istituto Clinico Humanitas e la Humanitas University di Rozzano, ha deciso di mettere alla prova uno dei più noti modelli di IA, ChatGPT. I risultati, pubblicati sul prestigioso European Journal of Pathology, hanno fatto il giro del mondo e sono stati premiati dall'Ordine dei Medici di Milano con uno dei riconoscimenti dedicati a Roberto Anzalone, una figura storica della medicina meneghina.
Ma veniamo ai numeri, perché sono quelli a parlare più forte. I ricercatori hanno sottoposto al chatbot ben 200 quesiti clinici reali, simulando il lavoro di un medico patologo che cerca un supporto per le sue diagnosi. Ebbene, i risultati sono stati a dir poco allarmanti:
- Nel 70% dei casi, le risposte contenevano almeno un errore.
 - Solo il 32,1% delle risposte era completamente corretto.
 - Circa il 30% dei riferimenti bibliografici forniti a supporto delle risposte era inaccurato o, peggio, completamente inventato.
 
Proprio quest'ultimo dato ha lasciato di stucco i ricercatori. L'intelligenza artificiale, in pratica, aveva costruito dal nulla una realtà scientifica parallela, citando studi e articoli inesistenti ma così ben costruiti da sembrare veri. Un fenomeno che in gergo tecnico viene chiamato "allucinazione".
Dalla diagnosi sbagliata di un tumore alla pelle a fonti inventate: i casi eclatanti
Per capire la portata del problema, basta pensare ad alcuni degli errori più gravi commessi dall'IA durante lo studio. In un caso, ha completamente sbagliato la diagnosi di un carcinoma alla pelle. In un altro, ha diagnosticato un tipo di tumore al seno diverso da quello reale, fornendo a corredo ben due fonti bibliografiche fasulle ma plausibili.
"Si tratta di strumenti che vanno usati con estrema cautela," ha spiegato Vincenzo Guastafierro, "perché possono indurre decisioni diagnostiche inappropriate con un impatto negativo sulle scelte terapeutiche". In sostanza, un medico che si fidasse ciecamente di un suggerimento errato dell'IA potrebbe prescrivere una cura sbagliata, con conseguenze potenzialmente molto gravi per il paziente.
L'occhio clinico resta insostituibile
La conclusione a cui giunge lo studio è netta e rassicurante: l'intelligenza artificiale può e deve essere considerata un utile supporto, uno strumento in più nella cassetta degli attrezzi del medico, ma non potrà mai sostituire la competenza, l'esperienza e quello che viene definito "l'occhio clinico" del professionista in carne e ossa.
Questo non significa bocciare la tecnologia in toto, anzi. Lo stesso Guastafierro ha annunciato che gli studi andranno avanti, testando le versioni più aggiornate dei chatbot per monitorarne i progressi e l'affidabilità nel tempo. L'obiettivo non è fermare l'innovazione, ma imparare a governarla, a capirne i limiti per sfruttarne al meglio le potenzialità.
La riflessione, però, non riguarda solo i medici. Riguarda anche tutti noi, i pazienti, che sempre più spesso ci rivolgiamo alla rete per cercare risposte ai nostri dubbi sulla salute. Questo studio ci ricorda quanto sia fondamentale affidarsi sempre e comunque al proprio medico curante, l'unico in grado di interpretare i sintomi nel contesto della nostra storia clinica personale.
Conclusione: un futuro di collaborazione, non di sostituzione
Personalmente, credo che la strada da percorrere sia quella della collaborazione intelligente tra uomo e macchina. L'IA ha un potenziale enorme: può analizzare quantità di dati impensabili per un essere umano, individuare schemi nascosti, accelerare la ricerca. Può diventare un assistente instancabile e preziosissimo per i nostri medici. Ma la decisione finale, la responsabilità della diagnosi e della cura, non può che rimanere nelle mani dell'essere umano. Questo studio italiano ha il grande merito di aver acceso un faro su una questione cruciale, ricordandoci che la tecnologia è un mezzo, non il fine. E che nel cuore della medicina, oggi come ieri, ci devono essere la competenza, l'empatia e il rapporto di fiducia tra medico e paziente. Un rapporto che, per fortuna, nessun algoritmo potrà mai sostituire.
                            