Discourse AI falhando ao traduzir grande número de posts e tópicos

Minha experiência é exatamente a oposta. Tenho um conjunto de instruções que quero que sejam seguidas, que exigem a compreensão do contexto, as quais são ignoradas por modelos que não pensam, ou aplicadas em situações erradas. Acabei de traduzir um aplicativo inteiro dessa forma - mais de 3000 strings, com modelos de raciocínio dando resultados muito melhores.

Reduzi o esforço de pensamento para baixo com base em minhas descobertas e obtive todas as traduções. Mas acredito que limitar os tokens de saída dessa forma é contraproducente, pois os modelos de pensamento não são impedidos de serem usados em traduções, e o usuário não tem ideia do porquê está falhando.

A solução pode ser tão simples quanto multiplicar por 2 se o LLM tiver o pensamento habilitado. Ou expor um multiplicador como uma opção de configuração.

2 curtidas