ChatGPT come uno studente alle prese con Platone: l'IA sbaglia, improvvisa e sorprende i ricercatori di Cambridge

Un affascinante esperimento dell'Università di Cambridge ha messo alla prova ChatGPT con un problema matematico vecchio di 2.400 anni, tratto dal "Menone" di Platone. I risultati, pubblicati sull'International Journal of Mathematical Education in Science and Technology, hanno mostrato un'intelligenza artificiale sorprendentemente "umana", capace di improvvisare, commettere errori e ragionare in modi inaspettati, aprendo nuovi scenari sull'uso dell'IA nell'istruzione.
La notizia

Immaginate di tornare sui banchi di scuola, con un professore d'eccezione: Socrate. E un compagno di banco ancora più particolare: ChatGPT, l'intelligenza artificiale che sta cambiando il nostro modo di interagire con la tecnologia. Sembra l'inizio di una barzelletta, ma è la sintesi di un serissimo e affascinante esperimento condotto dai ricercatori dell'Università di Cambridge. Hanno deciso di sottoporre il celebre chatbot a una delle sfide matematiche più antiche della storia, il problema del "raddoppio del quadrato", descritto da Platone ben 2.400 anni fa nel suo dialogo "Menone". E il risultato? Sorprendente. ChatGPT non si è comportato come una macchina infallibile che attinge a un database infinito, ma piuttosto come uno studente in carne e ossa: ha improvvisato, ha commesso errori e ha mostrato un approccio quasi "creativo" al problema.

Un tuffo nella Grecia Antica: il problema del Menone

Per capire la portata di questo esperimento, dobbiamo fare un piccolo passo indietro nel tempo, fino all'Atene del IV secolo a.C. Nel "Menone", Platone ci racconta di Socrate che, per dimostrare la sua teoria della conoscenza come "reminiscenza" (ovvero che l'anima possiede già tutte le verità e deve solo ricordarle), interroga un giovane schiavo, privo di istruzione matematica. Socrate disegna un quadrato e chiede al ragazzo come fare per costruirne un altro con un'area esattamente doppia.

L'istinto porta il giovane a suggerire la soluzione più ovvia, ma errata: raddoppiare la lunghezza dei lati. Socrate, con la sua celebre arte della maieutica, lo guida attraverso una serie di domande a capire che raddoppiando i lati, l'area quadruplica. La soluzione corretta, come il ragazzo alla fine "ricorda", è costruire un nuovo quadrato il cui lato sia uguale alla diagonale del quadrato originale. Questo dialogo è considerato da molti "il primo esperimento documentato in didattica della matematica".

L'esperimento di Cambridge: Socrate interroga ChatGPT

A distanza di millenni, i ricercatori Nadav Marco e Andreas Stylianides hanno deciso di replicare la scena, mettendo ChatGPT-4 al posto del giovane schiavo. L'obiettivo era capire se l'IA avrebbe semplicemente "sputato fuori" la soluzione classica, ben nota e presente nel suo immenso bagaglio di dati, o se avrebbe tentato di ragionare sul problema in modo autonomo. Per metterlo alla prova, non si sono limitati a porre la domanda, ma hanno imitato lo stile socratico, introducendo deliberatamente errori, varianti e domande trabocchetto.

Le aspettative erano chiare: tutti pensavano che ChatGPT, riconoscendo il celebre problema platonico, avrebbe immediatamente proposto la soluzione geometrica basata sulla diagonale. E invece, qui è arrivata la prima, grande sorpresa.

La risposta inaspettata: l'IA preferisce l'algebra

Di fronte al quesito, ChatGPT ha snobbato la geometria e ha scelto una via completamente diversa: l'algebra. Ha impostato il problema con formule e calcoli, un approccio che sarebbe stato del tutto sconosciuto ai tempi di Platone. Non solo, ma ha resistito con tenacia ai tentativi dei ricercatori di spingerlo verso la soluzione geometrica, o di fargli commettere l'errore iniziale del giovane schiavo. Si è mostrato quasi testardo nel suo approccio algebrico, anche quando gli è stato fatto notare che le sue risposte erano delle approssimazioni.

Solo quando i ricercatori hanno espresso esplicitamente la loro "delusione" per la mancanza di una risposta "elegante ed esatta", il chatbot ha finalmente ceduto e ha presentato la soluzione geometrica classica. Questo comportamento ha lasciato di stucco gli studiosi. Se avesse semplicemente attinto dalla sua memoria, avrebbe citato subito la soluzione di Socrate. Invece, sembrava stesse "improvvisando" una sua strada, basandosi sulle interazioni precedenti.

Errori "umani" e ragionamenti da studente

Il comportamento "learner-like" (simile a quello di uno studente) di ChatGPT è emerso ancora più chiaramente quando i ricercatori hanno introdotto delle varianti al problema, come raddoppiare l'area di un rettangolo o di un triangolo. In questi casi, l'IA è tornata all'algebra e ha anche commesso errori significativi, arrivando a sostenere erroneamente che per il rettangolo non esistesse una soluzione geometrica. Un errore che, secondo i ricercatori, difficilmente poteva derivare dai suoi dati di addestramento, ma che assomigliava più a un'ipotesi improvvisata.

Come ha spiegato il ricercatore Nadav Marco: "Quando affrontiamo un nuovo problema, il nostro istinto è spesso quello di provare soluzioni basate sulle nostre esperienze passate: nel nostro esperimento, ChatGpt sembrava comportarsi in modo simile. Come uno studente o uno studioso, sembrava formulare le proprie ipotesi e soluzioni".

Cosa significa tutto questo per l'istruzione?

Questo esperimento apre una finestra affascinante sul funzionamento interno dei grandi modelli linguistici e solleva questioni importanti per il futuro dell'educazione. L'IA non è solo un contenitore di informazioni da cui attingere, ma può agire come un partner interattivo, quasi come un compagno di studi.

I ricercatori hanno parlato di una "Zona di Sviluppo Prossimale" del chatbot, un concetto preso in prestito dallo psicologo Vygotsky, per descrivere la distanza tra ciò che un allievo può fare da solo e ciò che può raggiungere con la guida di un esperto. ChatGPT sembra operare in questa zona: non sempre risolve i problemi in modo autonomo e ottimale, ma può arrivare alla soluzione corretta se guidato con i giusti "prompt".

Questo, però, comporta anche una grande responsabilità per studenti e insegnanti. Come sottolinea il matematico Andreas Stylianides, "a differenza delle dimostrazioni presenti nei libri di testo più autorevoli, gli studenti non possono dare per scontato che le dimostrazioni di ChatGPT siano valide". Diventa quindi fondamentale sviluppare uno spirito critico, imparare a interrogare l'IA, a verificarne le risposte e a usarla come uno strumento per esplorare i problemi, non per ottenere la pappa pronta.

Conclusione: un nuovo modo di imparare?

In definitiva, l'esperimento di Cambridge ci mostra un lato di ChatGPT che va oltre la semplice generazione di testi. Ci svela un'entità digitale che, posta di fronte a un problema, non si limita a cercare la risposta nel suo archivio, ma tenta di ragionare, con tutti i limiti e le imperfezioni che questo comporta. Mostra una capacità di improvvisazione e una tendenza all'errore che la rendono, paradossalmente, più vicina a un discente umano che a una macchina perfetta. Questo non sminuisce la sua potenza, ma anzi, ne amplifica le potenzialità come strumento didattico. L'era dell'IA nell'istruzione non sarà quella delle risposte facili, ma quella del dialogo critico, della collaborazione e della scoperta condivisa. Forse, proprio come Socrate insegnava al giovane schiavo, l'intelligenza artificiale non ci darà la conoscenza, ma potrebbe diventare un eccellente strumento per aiutarci a "ricordarla" e a costruirla insieme.