¡Saludos! Noté que el plugin de Discourse AI ahora incluye una sección de Ejemplos en el panel de administración, donde puedes simular interacciones anteriores entre el usuario y el modelo para guiar mejores respuestas.
¿Existen mejores prácticas para crear estos ejemplos? ¿Deberían ser cortos y enfocados o más similares a respuestas completas?
Además, ¿es este un buen lugar para delegar contenido que normalmente pondríamos en el sistema o en el prompt de la persona? Y, ¿cómo trata el modelo los ejemplos en comparación con lo que está en el prompt—¿se les da un peso diferente o se procesan de manera distinta?
Solo busco aprovechar mejor esta función sin sobrecargar el prompt. ¡Agradezco cualquier consejo o aclaración!
Deberían seguir el mismo formato que esperas que tengan tus respuestas. Si quieres respuestas cortas en interacciones posteriores, mantén los ejemplos cortos y viceversa.
No. Esto simplemente está añadiendo rondas de conversación que se antepondrán a cada interacción con esa persona.
Depende del modelo. Algunos modelos, como Gemma, tratan el prompt del sistema y los mensajes del usuario con prácticamente el mismo peso. Mientras que otros modelos dan mayor peso al prompt del sistema.
La idea es que tus conversaciones con esta persona serán como
system: aquí va el prompt del sistema
user: ejemplo 1
assistant: ejemplo 1
user: ejemplo 2
assistant: ejemplo 2
user: aquí va tu mensaje real
assistant:
Donde los ejemplos funcionan muy bien para ayudar a fundamentar el estilo de los mensajes del asistente.