Questa guida spiega come abilitare e configurare la funzionalità di ricerca AI, che fa parte del plugin Discourse AI.
Livello utente richiesto: Amministratore
Simile a Argomenti correlati, la ricerca AI ti aiuta a trovare gli argomenti più pertinenti utilizzando la somiglianza testuale semantica che va oltre la corrispondenza esatta di parole chiave utilizzata dalla ricerca tradizionale. Ciò porta alla scoperta di argomenti che non sono corrispondenze esatte ma sono comunque pertinenti alla ricerca iniziale. Se non riesci a trovare ciò che stai cercando, la ricerca AI è qui per aiutarti!
Funzionalità
- Somiglianza testuale semantica: va oltre la semplice corrispondenza di parole chiave e utilizza l’analisi semantica per trovare la somiglianza testuale
- Ricerca rapida AI: aggiunge automaticamente risultati AI nel popup del menu di ricerca quando vengono trovati pochi risultati regolari (abilitabile con
ai_embeddings_semantic_quick_search_enabled) - Attivabile/disattivabile per la ricerca AI nella ricerca a pagina intera
- HyDE (Hypothetical Document Embeddings) opzionale: utilizza un LLM per espandere le query per risultati migliori
- Risultati indicati dall’icona

- Applicabile sia agli utenti anonimi che a quelli autenticati
Abilitazione della Ricerca AI
Prerequisiti
Per utilizzare la Ricerca AI è necessario configurare gli Embeddings. Un Large Language Model (LLM) è opzionalmente necessario se si abilita HyDE (Hypothetical Document Embeddings) per una migliore qualità di ricerca.
Embeddings
Se si utilizza il nostro hosting, forniremo un’opzione predefinita. Per gli self-hoster, seguire la guida su Discourse AI - Embeddings
Large Language Model (LLM) (opzionale — per HyDE)
Un LLM è richiesto solo se si abilita l’impostazione ai_embeddings_semantic_search_use_hyde, che utilizza un LLM per creare un documento ipotetico dalla query di ricerca prima di incorporarlo. Ciò può migliorare la qualità dei risultati, ma aggiunge latenza e costi.
Per iniziare, è possibile configurarli tramite la pagina delle impostazioni Discourse AI - Large Language Model (LLM).
- OpenAI
- Anthropic
- Azure OpenAI
- AWS Bedrock con accesso Anthropic
- Self-Hosting di un LLM OpenSource per DiscourseAI
- Google Gemini
Configurazione
- Accedere a
Admin→Plugins→Discourse AI→Features→Embeddingsper trovare tutte le impostazioni di ricerca AI - Abilitare
ai_embeddings_enabledper gli Embeddings - Abilitare
ai_embeddings_semantic_search_enabledper attivare la ricerca AI sulla ricerca a pagina intera - Abilitare facoltativamente
ai_embeddings_semantic_quick_search_enabledper aggiungere risultati AI nel popup del menu di ricerca - Abilitare facoltativamente
ai_embeddings_semantic_search_use_hydeper utilizzare HyDE per risultati migliorati (richiede un LLM)
FAQ Tecnico
Espandi per una panoramica della logica di ricerca AI (con HyDE abilitato)
mermaid height=255,auto
sequenceDiagram
User->>+Discourse: Cerca "gamification"
Discourse->>+LLM: Crea un articolo su "gamification" in un forum su<br> "Discourse, un sistema di forum Internet open source."
LLM->>+Discourse: La gamification comporta l'applicazione di elementi di game design come<br>punti, badge, livelli e classifiche a contesti non di gioco...
Discourse->>+EmbeddingsAPI: Genera Embeddings per "La gamification comporta l'applicazione del game design..."
EmbeddingsAPI->>+Discourse: [0.123, -0.321...]
Discourse->>+PostgreSQL: Dammi gli argomenti più vicini per [0.123, -0.321...]
PostgreSQL->>+Discourse: Argomenti: [1, 5, 10, 50]
Discourse->>+User: Argomenti: [1, 5, 10, 50]
Come funziona la Ricerca AI?
- Quando HyDE è abilitato (
ai_embeddings_semantic_search_use_hyde), la query di ricerca viene eseguita tramite un LLM che crea un argomento/post ipotetico. Gli Embeddings vengono quindi generati da quel post ipotetico e utilizzati per cercare corrispondenze simili sul tuo sito. Quando HyDE è disabilitato (impostazione predefinita), la query di ricerca viene incorporata direttamente e utilizzata per il matching di similarità. In entrambi i casi, i risultati vengono uniti ai risultati di ricerca regolari utilizzando la Reciprocal Rank Fusion (RRF) per riordinare i primi risultati.
Come vengono elaborati i dati di argomenti/post?
- Quando HyDE è abilitato, i dati LLM sono elaborati da un fornitore di terze parti; fare riferimento al proprio fornitore specifico per maggiori dettagli. Per impostazione predefinita, il microservizio Embeddings viene eseguito insieme ad altri server che ospitano i vostri forum esistenti. Non è coinvolta alcuna terza parte qui, e tali informazioni specifiche non lasciano mai la vostra rete interna nel nostro data center privato virtuale.
Dove vanno i dati?
- Quando HyDE è abilitato, un argomento/post ipotetico creato dal fornitore LLM viene temporaneamente memorizzato nella cache insieme agli Embeddings per quel documento. I dati degli Embeddings sono archiviati nello stesso database in cui archiviamo i vostri argomenti, post e utenti, È un’altra tabella di dati al suo interno.
Che aspetto ha il “modello semantico” degli Embeddings? Come è stato “addestrato” e c’è un modo per testare che possa applicarsi accuratamente agli argomenti nelle nostre comunità “specializzate”?
- Per impostazione predefinita utilizziamo modelli open source pre-addestrati, come questo. Li abbiamo implementati per molti clienti e abbiamo scoperto che funzionano bene sia per le comunità di nicchia che per quelle generiche. Se le prestazioni non sono sufficienti per il vostro caso d’uso, abbiamo modelli più complessi pronti all’uso, ma secondo la nostra esperienza, l’opzione predefinita è una scelta solida.