Discourse AI - Ricerca AI

:bookmark: Questa guida spiega come abilitare e configurare la funzionalità di ricerca AI, che fa parte del plugin Discourse AI.

:person_raising_hand: Livello utente richiesto: Amministratore

Simile a Argomenti correlati, la ricerca AI ti aiuta a trovare gli argomenti più pertinenti utilizzando la similarità testuale semantica che va oltre una corrispondenza esatta di parole chiave utilizzata dalla ricerca tradizionale. Ciò si traduce nella scoperta di argomenti che non sono corrispondenze esatte ma sono comunque pertinenti alla ricerca iniziale. Se non riesci a trovare quello che stai cercando, la ricerca AI è qui per aiutarti!

Funzionalità

  • Similarità testuale semantica: va oltre la semplice corrispondenza di parole chiave e utilizza l’analisi semantica per trovare la similarità testuale
  • Ricerca rapida AI
  • Attivata/disattivata per la ricerca AI nella ricerca a pagina intera
  • Risultati indicati dall’icona :sparkles:
  • Applicabile sia agli utenti anonimi che a quelli registrati

Abilitazione della ricerca AI

Prerequisiti

Per utilizzare la ricerca AI avrai bisogno di Embeddings e di un Large Language Model (LLM).

Embeddings

Se sei sul nostro hosting, forniremo un’opzione predefinita. Per gli auto-hoster segui la guida su Discourse AI - Embeddings

Large Language Model (LLM)

I clienti ospitati da Discourse e gli auto-hoster devono configurare almeno un Large Language Model (LLM) da un provider.

Per iniziare puoi configurarli tramite la pagina delle impostazioni di Discourse AI - Large Language Model (LLM).

Configurazione

  1. Vai alle impostazioni di AmministrazionePlugin → cerca o trova discourse-ai e assicurati che sia abilitato
  2. Abilita ai_embeddings_enabled per Embeddings
  3. Abilita ai_embeddings_semantic_search_enabled per attivare la ricerca AI

FAQ Tecniche

Espandi per una panoramica della logica della ricerca AI
mermaid height=255,auto
sequenceDiagram
    User->>+Discourse: Cerca "gamification"
    Discourse->>+LLM: Crea un articolo su "gamification" in un forum su
  "Discourse, un sistema di forum Internet open source."
    LLM->>+Discourse: La gamification implica l'applicazione di elementi di game design come
  punti, badge, livelli e classifiche a contesti non di gioco...
    Discourse->>+EmbeddingsAPI: Genera Embeddings per "La gamification implica l'applicazione di elementi di game design..."
    EmbeddingsAPI->>+Discourse: [0.123, -0.321...]
    Discourse->>+PostgreSQL: Dammi gli argomenti più vicini per [0.123, -0.321...]
    PostgreSQL->>+Discourse: Argomenti: [1, 5, 10, 50]
    Discourse->>+User: Argomenti: [1, 5, 10, 50]

Come funziona la ricerca AI?

  • La query di ricerca iniziale viene eseguita tramite un LLM che crea un argomento/post ipotetico. Successivamente, vengono eseguiti gli Embeddings su quel post e quindi viene cercato sul tuo sito corrispondenze simili alla query di ricerca. Infine, utilizza il Reciprocal Rank Fusion (RFF) per riordinare i primi risultati in linea con la ricerca normale.

Come vengono elaborati i dati degli argomenti/post?

  • I dati LLM vengono elaborati da un provider di terze parti, fai riferimento al tuo provider specifico per maggiori dettagli. Per impostazione predefinita, il microservizio Embeddings viene eseguito insieme ad altri server che ospitano i tuoi forum esistenti. Non c’è terze parti coinvolte qui, e quelle specifiche informazioni non lasciano mai la tua rete interna nel nostro data center virtuale privato.

Dove vanno i dati?

  • Un argomento/post ipotetico creato dal provider LLM viene memorizzato temporaneamente nella cache insieme agli Embeddings per quel documento. I dati degli Embeddings sono archiviati nello stesso database in cui archiviamo i tuoi argomenti, post e utenti. È un’altra tabella dati lì.

Che aspetto ha il “modello semantico” degli Embeddings? Come è stato “addestrato” e c’è un modo per testare che possa essere applicato accuratamente agli argomenti delle nostre comunità “specializzate”?

  • Per impostazione predefinita utilizziamo modelli open source pre-addestrati, come questo. Abbiamo implementato per molti clienti e abbiamo scoperto che funziona bene sia per le comunità di nicchia che per quelle generali. Se le prestazioni non sono sufficienti per il tuo caso d’uso, abbiamo modelli più complessi pronti all’uso, ma secondo la nostra esperienza, l’opzione predefinita è una scelta solida.
6 Mi Piace

Ho notato un piccolo bug nell’interfaccia utente per ai embeddings semantic search hyde model. Passaggi per replicare

  1. Installa il plugin AI Discourse
  2. Apri impostazioni → Configura chiave Gemini
  3. Abilita i embeddings semantic search enabled
  4. ai embeddings semantic search hyde model mostra Google - gemini-pro (non configurato)

Il non configurato non scompare fino a dopo che tutte le configurazioni sono state abilitate e la pagina viene aggiornata successivamente.

2 Mi Piace

Penso che questa sia una limitazione della nostra pagina delle impostazioni del sito, quindi mi scuso per questo e sono contento che tu sia riuscito a risolvere.

1 Mi Piace

Una domanda sulla semantica. In alcuni moduli AI vedo un riferimento all’uso di Gemini mentre in altri vedo un riferimento a Gemini-Pro. Si riferiscono a modelli diversi (Gemini Nano, Pro e Ultra) o si riferiscono allo stesso LLM? Se è così, a cosa si riferisce Gemini stesso e ha importanza se si ha un abbonamento a pagamento o gratuito a Gemini?

1 Mi Piace

Esistono diversi modelli Gemini come quelli che hai indicato. A seconda di quello che hai (probabilmente pro dato che è gratuito al momento), ti basterà inserire la chiave API nell’impostazione pertinente. L’impostazione è per qualsiasi modello Gemini tu abbia.

Dipende da te e da come vuoi usare Gemini, ma entrambi dovrebbero funzionare.

Maggiori informazioni qui:

1 Mi Piace

C’è un modo per iniettare qualcosa nel prompt iniziale all’LLM o manipolare gli embedding prima che vengano passati alla ricerca normale?

Sto cercando di potenziare (o eventualmente separare) le risposte del personale (più autorevoli) da quelle della community.

2 Mi Piace

Attualmente, non supportiamo alcuna iniezione personalizzata di prompt LLM all’interno di AI Search, anche se questa potrebbe essere un’aggiunta per il futuro.

Ti consiglio di fare una richiesta di Feature!

2 Mi Piace

Ho appena iniziato a usare la ricerca AI e mi piace finora. Non riesco a trovare un motivo per non usarla sempre. C’è un modo per mostrare solo i risultati AI (oltre a usare css per nascondere .fps-result ma non .ai-result)?

Inoltre, puoi spiegare meglio dove trovare la ricerca rapida?

1 Mi Piace

Ehi, era temporaneamente disponibile esclusivamente su Meta come esperimento. L’ho rimosso dall’OP - grazie per averlo segnalato

Stiamo utilizzando Discourse Algolia Search per la ricerca di completamento automatico nell’intestazione. Possiamo continuare a utilizzare Discourse AI - Ricerca AI?

Un post è stato diviso in un nuovo argomento: Non vedere il pannello delle preferenze utente per Discourse AI