Il plugin Discourse AI dispone di molte funzionalità che richiedono gli embedding per funzionare, come Argomenti Correlati, Ricerca AI, Suggerimento Categoria e Tag AI, ecc. Sebbene sia possibile utilizzare un’API di terze parti, come Configura chiavi API per OpenAI, Configura chiavi API per Cloudflare Workers AI o Configura chiavi API per Google Gemini, abbiamo creato Discourse AI fin dal primo giorno per non essere vincolati a queste.
Esecuzione con HuggingFace TEI
HuggingFace fornisce un’ottima immagine container che ti permette di essere operativo rapidamente.
Ad esempio:
mkd ir -p /opt/tei-cache
docker run --rm --gpus all --shm-size 1g -p 8081:80 \
-v /opt/tei-cache:/data \
ghcr.io/huggingface/text-embeddings-inference:latest \
--model-id BAAI/bge-large-en-v1.5
Questo dovrebbe metterti in funzione con un’istanza locale di BAAI/bge-large-en-v1.5, un modello open-source con prestazioni molto buone.
Puoi verificare se funziona con
curl http://localhost:8081/ \
-X POST \
-H 'Content-Type: application/json' \
"{ \"inputs\": \"Testing string for embeddings\" }"
che dovrebbe restituire un array di float in condizioni operative normali.
Rendilo disponibile per la tua istanza Discourse
Nella maggior parte dei casi, lo eseguirai su un server dedicato a causa dell’accelerazione GPU. Quando lo fai, consiglio di eseguire un reverse proxy, eseguire la terminazione TLS e proteggere l’endpoint in modo che possa essere connesso solo dalla tua istanza Discourse.
Configurazione di DiscourseAI
Discourse AI include impostazioni del sito per configurare il server di inferenza per i modelli open-source. Dovresti puntarlo al tuo server utilizzando la scheda Embedding nelle impostazioni di amministrazione del plugin AI.