Saudações! Notei que o plugin AI do Discourse agora inclui uma seção de Exemplos no painel de administração, onde você pode simular interações anteriores do usuário/modelo para orientar respostas melhores.
Existem melhores práticas para criar esses exemplos? Eles devem ser curtos e focados, ou mais como respostas completas?
Além disso, este é um bom lugar para descarregar conteúdo que normalmente colocaríamos na persona ou na solicitação do sistema? E como o modelo trata os exemplos de forma diferente do que está no prompt — eles têm peso ou são processados de forma diferente?
Estou apenas tentando aproveitar mais esse recurso sem encher demais o prompt. Agradeço qualquer dica ou esclarecimento!
Eles devem seguir o mesmo formato que você espera que suas saídas sejam. Se você quiser respostas curtas em interações subsequentes, mantenha os exemplos curtos e vice-versa.
Não. Isso simplesmente anexa rodadas de conversas que serão antepostas a cada interação com essa persona.
Depende do modelo. Alguns modelos, como o Gemma, tratam o prompt do sistema e as mensagens do usuário com basicamente o mesmo peso. Enquanto outros modelos dão maior peso ao prompt do sistema.
A ideia é que suas conversas com essa persona serão como
system: o prompt do sistema vai aqui
user: exemplo 1
assistant: exemplo 1
user: exemplo 2
assistant: exemplo 2
user: sua mensagem real vai aqui
assistant:
Onde exemplos funcionam muito bem para ajudar a fundamentar o estilo das mensagens do assistente.