Pelo que entendi, esta instrução é concatenada ao prompt do sistema em vez de substituí-lo, tornando o prompt ainda mais longo e com idiomas misturados…
Mas passar no teste não significa que não há problema. (FYI eu ainda não configurei totalmente o LLM; tentei o serviço Gemini gratuito, mas recebi 429, então estou tentando descobrir como integrar o llama.cpp ao Discourse agora.)