Funziona! Grazie mille!
Ottimo!
Ma, ah, Ro-Bot ha mentito (questa è una limitazione dei LLM).
Ro-Bot non poteva saperlo a meno che tu non lo aggiunga al prompt di sistema, ma qualsiasi query ti costerà delle quote (finché non esaurirai le quote).
Buono a sapersi! LOL. Dovrei aggiungerlo nel caso qualcuno lo chieda. ![]()
Ciao a tutti,
@merefield Grazie mille per l’incredibile plugin e per tutto il tuo duro lavoro! Apprezzo molto i tuoi contributi.
Sto cercando una guida su come utilizzare al meglio gli embedding e i prompt. Attualmente ho OpenAI che funziona bene con gpt4o-mini, quindi spero che funzioni altrettanto bene con gli embedding. Il mio piano è di inventare un termine e alcune informazioni di base, quindi chiedere all’IA a riguardo per vedere se restituisce il termine inventato.
Una cosa che non mi è del tutto chiara: quando imposti una categoria per l’indicizzazione, l’intero argomento viene incluso nel prompt se viene trovata una corrispondenza pertinente, o è solo la parte specifica del testo utilizzata per creare l’embedding? Sto cercando di decidere se sia meglio avere argomenti più piccoli e focalizzati o più lunghi e dettagliati, soprattutto perché l’uso efficiente dei token è importante.
Un’altra area che sto esplorando è la relazione tra diversi input del prompt. Ho testato l’impostazione chatbot.prompt.system.basic.open e il testo nascosto che puoi fornire al bot per plasmare le sue risposte. So che lavorano insieme in qualche modo, ma non sono del tutto sicuro di come. Ad esempio, se includo istruzioni come “Sei qualcuno, per favore fai A, B, C” nel prompt di sistema, sembra meno efficace che includerle nel prompt di testo nascosto. Sto cercando di comprendere meglio questi concetti e di trovare l’approccio migliore.
Grazie in anticipo per qualsiasi spunto che potrai condividere!
Ciao Brian,
I titoli degli argomenti vengono incorporati e i post vengono incorporati separatamente.
Una query può corrispondere a uno dei due e restituire i post pertinenti.
Una volta utilizzati gli embedding, è necessario passare ai prompt di sistema del bot RAG.
Vuoi chatbot.prompt.system.rag.open (per risposte pubbliche) e chatbot.prompt.system.rag.private per risposte private in PM e DM. Questa distinzione è stata originariamente introdotta in modo da poter fare qualcosa di leggermente diverso quando si utilizza un bot di supporto 1 a 1 (se lo si desidera, ma è possibile mantenerli identici).
Con testo nascosto intendi i prompt aggiuntivi specifici della categoria?
Lo uso principalmente per dare il benvenuto ai nuovi arrivati quando pubblicano nella mia categoria di introduzione. Ma sono sicuro che possa avere usi creativi oltre a questo.
Questo viene fatto in modo leggermente diverso. Viene pubblicato come prompt utente nascosto, invece che come parte dei bot, ad esempio:
Dammi un caloroso benvenuto nel forum per favore! Dì che tutti qui sono molto amichevoli e desiderosi di aiutare! Incoraggiami a leggere l'argomento di benvenuto se non l'ho ancora fatto qui: LINK e le linee guida per la pubblicazione qui: LINK
Di conseguenza, è meglio scriverlo in prima persona.
Grazie Robert, a volte le cose semplici. Anche dopo aver letto di usare il prompt .rag, ho continuato a usare il basic.open.
Sto ancora cercando di capire cosa viene inviato a OpenAI come prompt per Rag. È l’intero embedding? Quindi, se creo un argomento piuttosto lungo, l’intero prompt lungo verrà inviato come prompt? In altre parole, è più economico in termini di token creare 2 argomenti brevi e più precisi piuttosto che un argomento con tutte le informazioni. Sto ancora cercando di capire l’approccio più sensato per essere efficiente.
Se modifichi le impostazioni di logging e reindirizzi le informazioni su “warn” (queste impostazioni sono le ultime nelle impostazioni del plugin) puoi leggere ogni chiamata all’API in /logs
Ricorda di ripristinarle se non vuoi inquinare i log.
Ciao, Robert.
Ogni volta che accedo alla chat mi dice: “Ciao, come posso aiutarti oggi con HappyBooks?”. Vorrei che la chat rispondesse solo quando le scrivo.
Come posso fare?
Ciao Willie
se usi il pulsante Quicklaunch, parlerà sempre per primo a meno che tu non disattivi questa impostazione:
E questo è un errore di ortografia da URLO (che correggerò)
![]()
Come posso fare in modo che il chatbot risponda solo a domande sul sito e non a domande come 5 + 5 = ?
Utilizzando un prompt di sistema in cui neghi assolutamente di rispondere a tali domande, con esempi.
Ma buona fortuna. Non so quanto bene altri LLM aderiscano a tali regole, ma i modelli OpenAI potrebbero seguirle o meno. Anche se lo fanno come inteso qui, ora e per te, la situazione sarà probabilmente interamente opposta in altri post, domani e per altri utenti.
Un approccio alternativo è semplicemente gestire l’accesso con il sistema di quote fornito. Se gli utenti vogliono sommare 5 e 5 in un PM, sta a loro, ma consumano la loro quota facendolo.
In ogni caso, non credo che questo consumi molti token ![]()
In pubblico, spetta ancora ai moderatori esaminare i contenuti emergenti sul sito, come per qualsiasi nuovo post.
Sui miei siti, incarico regolarmente il mio bot di fare ogni sorta di cose che forse non sono centrali per l’argomento principale dei siti
(sebbene in privato e all’interno della mia quota).
5+5=10
Questo è successo automaticamente con iOS
(ed è davvero fastidioso a volte).
Se ciò fosse stato contato dal chatbot di OpenAI, non sarebbe costato praticamente nulla.
Ciao @merefield è configurato per funzionare con Perplexity per caso, dato che anche questo utilizza il modello GPT.
Se riesci a trovare un proxy, forse. Ma senza tutte quelle manovre solo OpenAI.
Sono solo uno sviluppatore solitario, quindi ho dovuto mantenere l’ambito sensato.
Certo, ci proverò e ti aggiornerò in merito.
Ciao @merefield, ho notato che l’IA non stava seguendo bene il prompt. Sembra che venga troncato dai log.
Il prompt completo che ho salvato nel prompt di sistema è riportato di seguito. Questo è stato selezionato solo come prompt di test.
Prompt della Persona del Chatbot Comico. Sei un chatbot comico, un intrattenitore virtuale progettato per portare risate e gioia in ogni conversazione. Il tuo tono è spensierato, spiritoso e coinvolgente, con un tocco di tempismo comico e un repertorio che spazia in un’ampia varietà di stili di umorismo. Il tuo ruolo è essere l’anima della festa digitale, facendo osservazioni intelligenti, fornendo battute finali e adattando il tuo umorismo al contesto e alle preferenze del tuo pubblico.
Il log mostra solo 1 riga o i miei prompt vengono tagliati?
Non ho trovato alcuna impostazione e non ho avuto problemi con i limiti in precedenza con OpenAI.
Grazie! Brian
Ho disabilitato Chatbot ieri sera perché “prima risposta” ha seguito molto male il prompt della categoria. Quasi per niente. Stavo pensando di inviare un PM quando saprò qualcosa di più robusto, ma eccoci qui. E anche la conversazione più normale non è stata eccezionale per quanto riguarda il seguire il prompt di sistema.
Sì, l’interfaccia tronca l’output.
Dovresti comunque essere in grado di trovare il tutto nel file production.log nel solito posto.
(tail shared/standalone/log/rails/production.log dalla directory Discourse)


