Ich frage mich, ob dies entweder auf die Modelllogik (LLM-Halluzination) oder auf die Art und Weise zurückzuführen ist, wie wir Tool-Aufrufe implementiert haben (habe das noch nicht gesehen).
Haben Sie andere LLMs ausprobiert oder die Prompts so modifiziert, dass sie Anweisungen um jeden Preis befolgen?