しかし、それはここでの問題ではありませんよね?
問題は推論にあります。
LLMに電卓へのアクセスを与えることは確かに役立ちます(Chatbot は長い間そのアクセスを持っていました)が、貧弱な論理や推論を補うものではありません。正しい計算を「正しく」行うことは、間違った計算を間違って行うことと同等に悪いと言えるでしょう。実際、前者はエラーをより説得力のあるものにし、検出がより困難になる可能性がありますか?
しかし、それはここでの問題ではありませんよね?
問題は推論にあります。
LLMに電卓へのアクセスを与えることは確かに役立ちます(Chatbot は長い間そのアクセスを持っていました)が、貧弱な論理や推論を補うものではありません。正しい計算を「正しく」行うことは、間違った計算を間違って行うことと同等に悪いと言えるでしょう。実際、前者はエラーをより説得力のあるものにし、検出がより困難になる可能性がありますか?