Me pregunto si esto se debe a la lógica del modelo (alucinación del LLM) o a la forma en que implementamos las llamadas a las herramientas (aún no he visto esto).
¿Has probado otros LLM o a modificar los prompts para que sigan las instrucciones a toda costa?