Questa guida spiega come abilitare e configurare la funzionalità di ricerca AI, che fa parte del plugin Discourse AI.
Livello utente richiesto: Amministratore
Simile a Argomenti correlati, la ricerca AI ti aiuta a trovare gli argomenti più pertinenti utilizzando la similarità testuale semantica che va oltre una corrispondenza esatta di parole chiave utilizzata dalla ricerca tradizionale. Ciò si traduce nella scoperta di argomenti che non sono corrispondenze esatte ma sono comunque pertinenti alla ricerca iniziale. Se non riesci a trovare quello che stai cercando, la ricerca AI è qui per aiutarti!
Funzionalità
- Similarità testuale semantica: va oltre la semplice corrispondenza di parole chiave e utilizza l’analisi semantica per trovare la similarità testuale
- Ricerca rapida AI
- Attivata/disattivata per la ricerca AI nella ricerca a pagina intera
- Risultati indicati dall’icona
- Applicabile sia agli utenti anonimi che a quelli registrati
Abilitazione della ricerca AI
Prerequisiti
Per utilizzare la ricerca AI avrai bisogno di Embeddings e di un Large Language Model (LLM).
Embeddings
Se sei sul nostro hosting, forniremo un’opzione predefinita. Per gli auto-hoster segui la guida su Discourse AI - Embeddings
Large Language Model (LLM)
I clienti ospitati da Discourse e gli auto-hoster devono configurare almeno un Large Language Model (LLM) da un provider.
Per iniziare puoi configurarli tramite la pagina delle impostazioni di Discourse AI - Large Language Model (LLM).
- OpenAI
- Anthropic
- Azure OpenAI
- AWS Bedrock con accesso Anthropic
- HuggingFace Endpoints con modello simile a Llama2
- Auto-ospitare un LLM OpenSource per DiscourseAI
- Google Gemini
Configurazione
- Vai alle impostazioni di
Amministrazione→Plugin→ cerca o trovadiscourse-aie assicurati che sia abilitato- Abilita
ai_embeddings_enabledper Embeddings- Abilita
ai_embeddings_semantic_search_enabledper attivare la ricerca AIFAQ Tecniche
Espandi per una panoramica della logica della ricerca AI
mermaid height=255,auto sequenceDiagram User->>+Discourse: Cerca "gamification" Discourse->>+LLM: Crea un articolo su "gamification" in un forum su "Discourse, un sistema di forum Internet open source." LLM->>+Discourse: La gamification implica l'applicazione di elementi di game design come punti, badge, livelli e classifiche a contesti non di gioco... Discourse->>+EmbeddingsAPI: Genera Embeddings per "La gamification implica l'applicazione di elementi di game design..." EmbeddingsAPI->>+Discourse: [0.123, -0.321...] Discourse->>+PostgreSQL: Dammi gli argomenti più vicini per [0.123, -0.321...] PostgreSQL->>+Discourse: Argomenti: [1, 5, 10, 50] Discourse->>+User: Argomenti: [1, 5, 10, 50]Come funziona la ricerca AI?
- La query di ricerca iniziale viene eseguita tramite un LLM che crea un argomento/post ipotetico. Successivamente, vengono eseguiti gli Embeddings su quel post e quindi viene cercato sul tuo sito corrispondenze simili alla query di ricerca. Infine, utilizza il Reciprocal Rank Fusion (RFF) per riordinare i primi risultati in linea con la ricerca normale.
Come vengono elaborati i dati degli argomenti/post?
- I dati LLM vengono elaborati da un provider di terze parti, fai riferimento al tuo provider specifico per maggiori dettagli. Per impostazione predefinita, il microservizio Embeddings viene eseguito insieme ad altri server che ospitano i tuoi forum esistenti. Non c’è terze parti coinvolte qui, e quelle specifiche informazioni non lasciano mai la tua rete interna nel nostro data center virtuale privato.
Dove vanno i dati?
- Un argomento/post ipotetico creato dal provider LLM viene memorizzato temporaneamente nella cache insieme agli Embeddings per quel documento. I dati degli Embeddings sono archiviati nello stesso database in cui archiviamo i tuoi argomenti, post e utenti. È un’altra tabella dati lì.
Che aspetto ha il “modello semantico” degli Embeddings? Come è stato “addestrato” e c’è un modo per testare che possa essere applicato accuratamente agli argomenti delle nostre comunità “specializzate”?
- Per impostazione predefinita utilizziamo modelli open source pre-addestrati, come questo. Abbiamo implementato per molti clienti e abbiamo scoperto che funziona bene sia per le comunità di nicchia che per quelle generali. Se le prestazioni non sono sufficienti per il tuo caso d’uso, abbiamo modelli più complessi pronti all’uso, ma secondo la nostra esperienza, l’opzione predefinita è una scelta solida.
Ho notato un piccolo bug nell’interfaccia utente per ai embeddings semantic search hyde model. Passaggi per replicare
- Installa il plugin AI Discourse
- Apri impostazioni → Configura chiave Gemini
- Abilita
i embeddings semantic search enabled ai embeddings semantic search hyde modelmostra Google - gemini-pro (non configurato)
Il non configurato non scompare fino a dopo che tutte le configurazioni sono state abilitate e la pagina viene aggiornata successivamente.
Penso che questa sia una limitazione della nostra pagina delle impostazioni del sito, quindi mi scuso per questo e sono contento che tu sia riuscito a risolvere.
Una domanda sulla semantica. In alcuni moduli AI vedo un riferimento all’uso di Gemini mentre in altri vedo un riferimento a Gemini-Pro. Si riferiscono a modelli diversi (Gemini Nano, Pro e Ultra) o si riferiscono allo stesso LLM? Se è così, a cosa si riferisce Gemini stesso e ha importanza se si ha un abbonamento a pagamento o gratuito a Gemini?
Esistono diversi modelli Gemini come quelli che hai indicato. A seconda di quello che hai (probabilmente pro dato che è gratuito al momento), ti basterà inserire la chiave API nell’impostazione pertinente. L’impostazione è per qualsiasi modello Gemini tu abbia.
Dipende da te e da come vuoi usare Gemini, ma entrambi dovrebbero funzionare.
Maggiori informazioni qui:
C’è un modo per iniettare qualcosa nel prompt iniziale all’LLM o manipolare gli embedding prima che vengano passati alla ricerca normale?
Sto cercando di potenziare (o eventualmente separare) le risposte del personale (più autorevoli) da quelle della community.
Attualmente, non supportiamo alcuna iniezione personalizzata di prompt LLM all’interno di AI Search, anche se questa potrebbe essere un’aggiunta per il futuro.
Ti consiglio di fare una richiesta di Feature!
Ho appena iniziato a usare la ricerca AI e mi piace finora. Non riesco a trovare un motivo per non usarla sempre. C’è un modo per mostrare solo i risultati AI (oltre a usare css per nascondere .fps-result ma non .ai-result)?
Inoltre, puoi spiegare meglio dove trovare la ricerca rapida?
Ehi, era temporaneamente disponibile esclusivamente su Meta come esperimento. L’ho rimosso dall’OP - grazie per averlo segnalato
Stiamo utilizzando Discourse Algolia Search per la ricerca di completamento automatico nell’intestazione. Possiamo continuare a utilizzare Discourse AI - Ricerca AI?
Un post è stato diviso in un nuovo argomento: Non vedere il pannello delle preferenze utente per Discourse AI