Eles devem seguir o mesmo formato que você espera que suas saídas sejam. Se você quiser respostas curtas em interações subsequentes, mantenha os exemplos curtos e vice-versa.
Não. Isso simplesmente anexa rodadas de conversas que serão antepostas a cada interação com essa persona.
Depende do modelo. Alguns modelos, como o Gemma, tratam o prompt do sistema e as mensagens do usuário com basicamente o mesmo peso. Enquanto outros modelos dão maior peso ao prompt do sistema.
A ideia é que suas conversas com essa persona serão como
system: o prompt do sistema vai aqui
user: exemplo 1
assistant: exemplo 1
user: exemplo 2
assistant: exemplo 2
user: sua mensagem real vai aqui
assistant:
Onde exemplos funcionam muito bem para ajudar a fundamentar o estilo das mensagens do assistente.