Discourse AI - Ricerca AI

:bookmark: Questa guida spiega come abilitare e configurare la funzionalità di ricerca AI, che fa parte del plugin Discourse AI.

:person_raising_hand: Livello utente richiesto: Amministratore

Simile a Argomenti correlati, la ricerca AI ti aiuta a trovare gli argomenti più pertinenti utilizzando la somiglianza testuale semantica che va oltre la corrispondenza esatta di parole chiave utilizzata dalla ricerca tradizionale. Ciò porta alla scoperta di argomenti che non sono corrispondenze esatte ma sono comunque pertinenti alla ricerca iniziale. Se non riesci a trovare ciò che stai cercando, la ricerca AI è qui per aiutarti!

Funzionalità

  • Somiglianza testuale semantica: va oltre la semplice corrispondenza di parole chiave e utilizza l’analisi semantica per trovare la somiglianza testuale
  • Ricerca rapida AI: aggiunge automaticamente risultati AI nel popup del menu di ricerca quando vengono trovati pochi risultati regolari (abilitabile con ai_embeddings_semantic_quick_search_enabled)
  • Attivabile/disattivabile per la ricerca AI nella ricerca a pagina intera
  • HyDE (Hypothetical Document Embeddings) opzionale: utilizza un LLM per espandere le query per risultati migliori
  • Risultati indicati dall’icona :sparkles:
  • Applicabile sia agli utenti anonimi che a quelli autenticati

Abilitazione della Ricerca AI

Prerequisiti

Per utilizzare la Ricerca AI è necessario configurare gli Embeddings. Un Large Language Model (LLM) è opzionalmente necessario se si abilita HyDE (Hypothetical Document Embeddings) per una migliore qualità di ricerca.

Embeddings

Se si utilizza il nostro hosting, forniremo un’opzione predefinita. Per gli self-hoster, seguire la guida su Discourse AI - Embeddings

Large Language Model (LLM) (opzionale — per HyDE)

Un LLM è richiesto solo se si abilita l’impostazione ai_embeddings_semantic_search_use_hyde, che utilizza un LLM per creare un documento ipotetico dalla query di ricerca prima di incorporarlo. Ciò può migliorare la qualità dei risultati, ma aggiunge latenza e costi.

Per iniziare, è possibile configurarli tramite la pagina delle impostazioni Discourse AI - Large Language Model (LLM).

Configurazione

  1. Accedere a AdminPluginsDiscourse AIFeaturesEmbeddings per trovare tutte le impostazioni di ricerca AI
  2. Abilitare ai_embeddings_enabled per gli Embeddings
  3. Abilitare ai_embeddings_semantic_search_enabled per attivare la ricerca AI sulla ricerca a pagina intera
  4. Abilitare facoltativamente ai_embeddings_semantic_quick_search_enabled per aggiungere risultati AI nel popup del menu di ricerca
  5. Abilitare facoltativamente ai_embeddings_semantic_search_use_hyde per utilizzare HyDE per risultati migliorati (richiede un LLM)

FAQ Tecnico

Espandi per una panoramica della logica di ricerca AI (con HyDE abilitato)
mermaid height=255,auto
sequenceDiagram
    User->>+Discourse: Cerca "gamification" 
    Discourse->>+LLM: Crea un articolo su "gamification" in un forum su<br>  "Discourse, un sistema di forum Internet open source."
    LLM->>+Discourse: La gamification comporta l'applicazione di elementi di game design come<br>punti, badge, livelli e classifiche a contesti non di gioco...
    Discourse->>+EmbeddingsAPI: Genera Embeddings per "La gamification comporta l'applicazione del game design..."
    EmbeddingsAPI->>+Discourse: [0.123, -0.321...]
    Discourse->>+PostgreSQL: Dammi gli argomenti più vicini per [0.123, -0.321...]
    PostgreSQL->>+Discourse: Argomenti: [1, 5, 10, 50]
    Discourse->>+User: Argomenti: [1, 5, 10, 50]

Come funziona la Ricerca AI?

  • Quando HyDE è abilitato (ai_embeddings_semantic_search_use_hyde), la query di ricerca viene eseguita tramite un LLM che crea un argomento/post ipotetico. Gli Embeddings vengono quindi generati da quel post ipotetico e utilizzati per cercare corrispondenze simili sul tuo sito. Quando HyDE è disabilitato (impostazione predefinita), la query di ricerca viene incorporata direttamente e utilizzata per il matching di similarità. In entrambi i casi, i risultati vengono uniti ai risultati di ricerca regolari utilizzando la Reciprocal Rank Fusion (RRF) per riordinare i primi risultati.

Come vengono elaborati i dati di argomenti/post?

  • Quando HyDE è abilitato, i dati LLM sono elaborati da un fornitore di terze parti; fare riferimento al proprio fornitore specifico per maggiori dettagli. Per impostazione predefinita, il microservizio Embeddings viene eseguito insieme ad altri server che ospitano i vostri forum esistenti. Non è coinvolta alcuna terza parte qui, e tali informazioni specifiche non lasciano mai la vostra rete interna nel nostro data center privato virtuale.

Dove vanno i dati?

  • Quando HyDE è abilitato, un argomento/post ipotetico creato dal fornitore LLM viene temporaneamente memorizzato nella cache insieme agli Embeddings per quel documento. I dati degli Embeddings sono archiviati nello stesso database in cui archiviamo i vostri argomenti, post e utenti, È un’altra tabella di dati al suo interno.

Che aspetto ha il “modello semantico” degli Embeddings? Come è stato “addestrato” e c’è un modo per testare che possa applicarsi accuratamente agli argomenti nelle nostre comunità “specializzate”?

  • Per impostazione predefinita utilizziamo modelli open source pre-addestrati, come questo. Li abbiamo implementati per molti clienti e abbiamo scoperto che funzionano bene sia per le comunità di nicchia che per quelle generiche. Se le prestazioni non sono sufficienti per il vostro caso d’uso, abbiamo modelli più complessi pronti all’uso, ma secondo la nostra esperienza, l’opzione predefinita è una scelta solida.
6 Mi Piace

Ho notato un piccolo bug nell’interfaccia utente per ai embeddings semantic search hyde model. Passaggi per replicare

  1. Installa il plugin AI Discourse
  2. Apri impostazioni → Configura chiave Gemini
  3. Abilita i embeddings semantic search enabled
  4. ai embeddings semantic search hyde model mostra Google - gemini-pro (non configurato)

Il non configurato non scompare fino a dopo che tutte le configurazioni sono state abilitate e la pagina viene aggiornata successivamente.

2 Mi Piace

Penso che questa sia una limitazione della nostra pagina delle impostazioni del sito, quindi mi scuso per questo e sono contento che tu sia riuscito a risolvere.

1 Mi Piace

Una domanda sulla semantica. In alcuni moduli AI vedo un riferimento all’uso di Gemini mentre in altri vedo un riferimento a Gemini-Pro. Si riferiscono a modelli diversi (Gemini Nano, Pro e Ultra) o si riferiscono allo stesso LLM? Se è così, a cosa si riferisce Gemini stesso e ha importanza se si ha un abbonamento a pagamento o gratuito a Gemini?

1 Mi Piace

Esistono diversi modelli Gemini come quelli che hai indicato. A seconda di quello che hai (probabilmente pro dato che è gratuito al momento), ti basterà inserire la chiave API nell’impostazione pertinente. L’impostazione è per qualsiasi modello Gemini tu abbia.

Dipende da te e da come vuoi usare Gemini, ma entrambi dovrebbero funzionare.

Maggiori informazioni qui:

1 Mi Piace

C’è un modo per iniettare qualcosa nel prompt iniziale all’LLM o manipolare gli embedding prima che vengano passati alla ricerca normale?

Sto cercando di potenziare (o eventualmente separare) le risposte del personale (più autorevoli) da quelle della community.

2 Mi Piace

Attualmente, non supportiamo alcuna iniezione personalizzata di prompt LLM all’interno di AI Search, anche se questa potrebbe essere un’aggiunta per il futuro.

Ti consiglio di fare una richiesta di Feature!

2 Mi Piace

Ho appena iniziato a usare la ricerca AI e mi piace finora. Non riesco a trovare un motivo per non usarla sempre. C’è un modo per mostrare solo i risultati AI (oltre a usare css per nascondere .fps-result ma non .ai-result)?

Inoltre, puoi spiegare meglio dove trovare la ricerca rapida?

1 Mi Piace

Ehi, era temporaneamente disponibile esclusivamente su Meta come esperimento. L’ho rimosso dall’OP - grazie per averlo segnalato

Stiamo utilizzando Discourse Algolia Search per la ricerca di completamento automatico nell’intestazione. Possiamo continuare a utilizzare Discourse AI - Ricerca AI?

Un post è stato diviso in un nuovo argomento: Non vedere il pannello delle preferenze utente per Discourse AI