Estou tentando configurar o detector de spam de IA para minha própria instância do Discourse, mas tenho várias perguntas:
O prompt do sistema da persona do detector de spam não pode ser editado. Posso criar uma nova persona, mas não há campo para fazer o Discourse saber que ela será usada como detector de spam?
Quero usar o Qwen3 como LLM para a tarefa. Não há predefinição para o Qwen3, então vou criar uma personalizada. Mas também não há um Qwen3Tokenizer. O que o tokenizer faz aqui? O QwenTokenizer funciona para o Qwen3?
Ou, existe uma opção mais fácil na qual posso configurar um serviço semelhante a um webhook e o Discourse o chama em novos tópicos/posts?
Obrigado, mas eu sei o que é um tokenizador. O que eu não sei é para que o Discourse o utiliza e o que aconteceria se eu escolhesse o tokenizador errado? Eu não preciso de um tokenizador para chamar um LLM de qualquer maneira.
Você pode tentar visitar este https://\u003cyour-site\u003e/admin/plugins/discourse-ai/ai-spam - ele deve permitir que você insira instruções personalizadas e teste contra uma postagem.
Pelo que entendi, esta instrução é concatenada ao prompt do sistema em vez de substituí-lo, tornando o prompt ainda mais longo e com idiomas misturados…
Mas passar no teste não significa que não há problema. (FYI eu ainda não configurei totalmente o LLM; tentei o serviço Gemini gratuito, mas recebi 429, então estou tentando descobrir como integrar o llama.cpp ao Discourse agora.)
Eu verifiquei o código-fonte. Se não cometi erros, o tokenizador é usado para duas coisas: contar tokens para estatísticas e estimativa de preço, e truncar posts para o limite definido. Então, não deve me afetar muito se um incorreto for usado.