但那不是这里的问题,对吧?
问题在于推理。
让 LLM 访问计算器确实有帮助(Chatbot 长期以来一直拥有该访问权限),但这并不能弥补糟糕的逻辑或推理:正确地执行错误的计算,可以说和执行一个错误的计算一样糟糕。事实上,前者实际上可能会使错误更具说服力,因此更难检测?
但那不是这里的问题,对吧?
问题在于推理。
让 LLM 访问计算器确实有帮助(Chatbot 长期以来一直拥有该访问权限),但这并不能弥补糟糕的逻辑或推理:正确地执行错误的计算,可以说和执行一个错误的计算一样糟糕。事实上,前者实际上可能会使错误更具说服力,因此更难检测?