Discourse AI übersetzt eine große Anzahl von Beiträgen und Themen nicht

Wir mussten max_tokens begrenzen, da unsere Nutzung strukturierter Ausgaben dazu führte, dass viele kleinere Modelle bei Übersetzungen leicht in Endlosschleifen geraten konnten.

Ich glaube, die neuere Version der OpenAI Responses API wendet max_tokens an, ohne die Denk-Token zu zählen, was dieses Problem löst.