Ma non è questo il problema, vero?
Il problema è con il ragionamento.
Dare all’LLM l’accesso a una calcolatrice certamente aiuta (Chatbot ha avuto quell’accesso per molto tempo) ma non compensa una logica o un ragionamento scadenti: fare il calcolo sbagliato “correttamente” è probabilmente tanto grave quanto fare un calcolo sbagliato. Anzi, il primo può rendere l’errore più convincente e quindi più difficile da individuare?