Le plugin Discourse AI possède de nombreuses fonctionnalités qui nécessitent des embeddings pour fonctionner, telles que les sujets connexes, la recherche par IA, la suggestion de catégories et d’étiquettes par l’assistant IA, etc. Bien que vous puissiez utiliser une API tierce, comme Configurer les clés API pour OpenAI, Configurer les clés API pour Cloudflare Workers AI ou Configurer les clés API pour Google Gemini, nous avons conçu Discourse AI dès le premier jour pour ne pas être limité à ceux-ci.
Exécution avec HuggingFace TEI
HuggingFace fournit une image de conteneur impressionnante qui peut vous permettre de démarrer rapidement.
Par exemple :
mkd ir -p /opt/tei-cache
docker run --rm --gpus all --shm-size 1g -p 8081:80 \
-v /opt/tei-cache:/data \
ghcr.io/huggingface/text-embeddings-inference:latest \
--model-id BAAI/bge-large-en-v1.5
Cela devrait vous permettre de démarrer rapidement une instance locale de BAAI/bge-large-en-v1.5, un modèle open-source très performant.
Vous pouvez vérifier si cela fonctionne avec
curl http://localhost:8081/ \
-X POST \
-H 'Content-Type: application/json' \
"{ \"inputs\": \"Testing string for embeddings\" }"
Ce qui devrait renvoyer un tableau de nombres flottants en fonctionnement normal.
Rendre disponible pour votre instance Discourse
La plupart du temps, vous exécuterez cela sur un serveur dédié en raison de l’accélération GPU. Lorsque vous le faites, je recommande d’exécuter un proxy inverse, de faire la terminaison TLS et de sécuriser le point de terminaison afin qu’il ne puisse être connecté que par votre instance Discourse.
Configuration de DiscourseAI
Discourse AI inclut des paramètres de site pour configurer le serveur d’inférence pour les modèles open-source. Vous devriez le pointer vers votre serveur en utilisant l’onglet Embeddings dans les paramètres d’administration du plugin AI.