Bonjour ! J’ai remarqué que le plugin Discourse AI inclut maintenant une section Exemples dans le panneau d’administration, où vous pouvez simuler des interactions précédentes entre l’utilisateur et le modèle pour guider de meilleures réponses.
Y a-t-il des bonnes pratiques pour créer ces exemples ? Doivent-ils être courts et ciblés, ou plutôt ressembler à des réponses complètes ?
De plus, est-ce un bon endroit pour déléguer le contenu que nous mettrions normalement dans le système ou le prompt de persona ? Et comment le modèle traite-t-il ces exemples différemment de ce qui est dans le prompt — sont-ils pondérés ou traités différemment ?
Je cherche simplement à tirer plus parti de cette fonctionnalité sans alourdir le prompt. Merci pour tout conseil ou clarifications !
Elles doivent suivre le même format que celui que vous attendez de vos réponses. Si vous souhaitez des réponses courtes dans les interactions suivantes, gardez les exemples courts, et vice versa.
Non. Il s’agit simplement d’ajouter des tours de conversation qui seront ajoutés avant chaque interaction avec ce persona.
Cela dépend du modèle. Certains modèles, comme Gemma, traitent l’invite système et les messages de l’utilisateur avec à peu près le même poids. Tandis que d’autres modèles accordent plus de poids à l’invite système.
L’idée est que vos conversations avec ce persona ressembleront à
system: l'invite système va ici
user: exemple 1
assistant: exemple 1
user: exemple 2
assistant: exemple 2
user: votre message réel va ici
assistant:
Où les exemples aident grandement à ancrer le style des messages de l’assistant.