Salve! Ho notato che il plugin Discourse AI ora include una sezione Esempi nel pannello di amministrazione, dove puoi simulare interazioni precedenti tra utente/modello per guidare risposte migliori.
Esistono delle best practice per crearli? Devono essere brevi e focalizzati o più simili a risposte complete?
Inoltre, questo è un buon posto per distribuire contenuti che normalmente metteremmo nel prompt persona/sistema? E come tratta il modello gli esempi rispetto a ciò che è nel prompt — sono ponderati o elaborati in modo diverso?
Sto cercando di sfruttare al massimo questa funzionalità senza appesantire troppo il prompt. Apprezzerei qualsiasi suggerimento o chiarimento!
Dovrebbero seguire lo stesso formato che ti aspetti per le tue risposte. Se desideri risposte brevi nelle interazioni successive, mantieni brevi gli esempi e viceversa.
No. Questa è semplicemente l’aggiunta di turni di conversazione che verranno anteposti a ogni interazione con quella persona.
Dipende dal modello. Alcuni modelli, come Gemma, trattano il prompt di sistema e i messaggi dell’utente con sostanzialmente lo stesso peso. Mentre altri modelli danno maggior peso al prompt di sistema.
L’idea è che le tue conversazioni con questa persona saranno come
system: qui va il prompt di sistema
user: esempio 1
assistant: esempio 1
user: esempio 2
assistant: esempio 2
user: qui va il tuo messaggio effettivo
assistant:
Dove gli esempi funzionano benissimo per aiutare a definire lo stile dei messaggi dell’assistente.