Le plugin Discourse AI prend en charge la demande de classification des émotions/sentiments des nouveaux messages, qui est stockée dans la base de données et peut être utilisée dans les rapports et les tableaux de bord d’administration.
Exécution avec HuggingFace TEI
HuggingFace fournit une image de conteneur impressionnante qui peut vous permettre de démarrer rapidement.
Par exemple :
mkdir -p /opt/tei-cache
docker run --rm --gpus all --shm-size 1g -p 8081:80 \
-v /opt/tei-cache:/data \
ghcr.io/huggingface/text-embeddings-inference:latest \
--model-id cardiffnlp/twitter-roberta-base-sentiment-latest \
--revision refs/pr/30
Cela devrait vous permettre de démarrer rapidement avec une instance locale de ‘cardiffnlp/twitter-roberta-base-sentiment-latest’, un modèle ouvert capable de classifier les messages en positif/négatif/neutre.
Vous pouvez vérifier si cela fonctionne avec
curl http://localhost:8081/ \
-X POST \
-H 'Content-Type: application/json' \
"{ \"inputs\": \"I am happy\" }"
Ce qui devrait renvoyer un tableau de confiance pour chaque étiquette en fonctionnement normal.
Modèles pris en charge
- cardiffnlp/twitter-roberta-base-sentiment-latest · Hugging Face
- SamLowe/roberta-base-go_emotions · Hugging Face
Le rendre disponible pour votre instance Discourse
La plupart du temps, vous l’exécuterez sur un serveur dédié en raison de l’accélération GPU. Lorsque vous le faites, je recommande d’exécuter un proxy inverse, de faire la terminaison TLS et de sécuriser le point d’accès afin qu’il ne puisse être connecté que par votre instance Discourse.
Configuration de Discourse AI
Discourse AI inclut des paramètres de site pour configurer le serveur d’inférence pour les modèles open-source. Vous devriez le pointer vers votre serveur en utilisant le paramètre ai_sentiment_model_configs.
Après cela, activez la classification en activant ai_sentiment_enabled.
