Wir sind auf zwei verschiedenen Foren auf zwei unterschiedliche Probleme gestoßen, bei denen die Inhaltslokalisierung begann, Beiträge in ihre Originalsprache zu übersetzen.
Bei der Untersuchung stellte sich heraus, dass der Locale-Detektor keinen reinen Sprachcode vom LLM erhielt.
Stattdessen war er in Markdown ``` eingewickelt (die relevanten Teile aus dem Log nur zur besseren Lesbarkeit kopiert)
Das Ändern der letzten Zeile des Prompts zu Ihre Antwort muss ein Sprachcode sein und nichts anderes. Schließen Sie Ihre Antwort nicht in Markdown ein. hat geholfen, aber ich schätze, LanguageDetector.detect sollte die Antwort etwas bereinigen (vielleicht nur AZaz und - zulassen?), bevor es sie verwendet.
Ich habe hier eine Korrektur zusammengeführt, die die Aktualisierung des Prompts und die Verlagerung von Beispielen aus dem System-Prompt in eine ordnungsgemäße Interaktion beinhaltete.
Unser Team arbeitet derzeit an Evals, um die Zuverlässigkeit über verschiedene LLMs hinweg zu verbessern.