Was passiert mit Übersetzungen, wenn sich LLM ändert?

Meiner Erinnerung nach, als ich ein ähnliches Problem für einen Kunden debugge, kann man ein Denkmodell einfach nicht zur Lokalisierungserkennung verwenden.

Wir verwenden dort keine strukturierten Ausgaben, was bedeutet, dass wir sehr empfindlich darauf reagieren, wie die Ausgabe erfolgt. Denkblöcke brechen diese zu 100 % der Zeit, und ohne Lokalisierungserkennung bleibt die Übersetzung immer stecken.