Ciao @Falco
Ho integrato con successo il modello linguistico (LLM) descritto di seguito. Tuttavia, ho riscontrato un problema durante il processo di interrogazione: il prompt non tiene conto del contenuto specifico del mio forum. Invece di attingere alle discussioni e agli approfondimenti pertinenti all’interno del mio forum, sta generando risposte basate su informazioni preesistenti dall’LLM. Quali passaggi dovrei intraprendere per correggere questa situazione e garantire che il modello incorpori efficacemente i contributi unici del mio forum?
LLM utilizzato come suggerito in precedenza:
Esempio:
