ChatGpt e i Suoi Limiti in Matematica: L’Esperimento di Cambridge fra Errori Umani e Capacità AI

ChatGpt e i Suoi Limiti in Matematica: L’Esperimento di Cambridge fra Errori Umani e Capacità AI

L’intelligenza artificiale ChatGpt è stata sottoposta a un esperimento all’Università di Cambridge per valutare le sue capacità matematiche, utilizzando il celebre problema platonico del raddoppio del quadrato. Sebbene ChatGpt abbia dimostrato abilità nel risolvere quesiti matematici, lo studio ha evidenziato che commette errori simili a quelli degli studenti umani, come confondere aree con misure di lati e sbagliare calcoli intermedi. Questa somiglianza mette in luce che ChatGpt, non essendo un calcolatore matematico puro ma un elaboratore linguistico, risponde attingendo a pattern appresi e non sempre rigorosi. Questi limiti riflettono le difficoltà dell’apprendimento umano e aprono nuove prospettive sull’uso didattico dell’IA, che può diventare uno strumento pedagogico capace di promuovere il pensiero critico offrendo spiegazioni e simulando errori. Le potenzialità future includono miglioramenti nel senso numerico dell’IA, l’integrazione con motori di calcolo e funzioni di auto-valutazione. In sintesi, l’esperimento dimostra che ChatGpt non è infallibile ma rappresenta un alleato nell’educazione matematica, che attraverso la sua “umanità” può rendere l’apprendimento più accessibile e inclusivo, trasformando errori e limiti in risorse formative preziose.

Questo sito web utilizza cookies e richiede i dati personali per rendere più agevole la tua esperienza di navigazione.