Il plugin Discourse AI supporta la richiesta di classificazione delle emozioni/sentiment dei nuovi post, che viene memorizzata nel database e può essere utilizzata in report e dashboard di amministrazione.
Esecuzione con HuggingFace TEI
HuggingFace fornisce un’eccellente immagine container che ti permette di essere operativo rapidamente.
Ad esempio:
mkdir -p /opt/tei-cache
docker run --rm --gpus all --shm-size 1g -p 8081:80 \
-v /opt/tei-cache:/data \
ghcr.io/huggingface/text-embeddings-inference:latest \
--model-id cardiffnlp/twitter-roberta-base-sentiment-latest \
--revision refs/pr/30
Questo dovrebbe renderti operativo con un’istanza locale di ‘cardiffnlp/twitter-roberta-base-sentiment-latest’, un modello open che può classificare i post in positivo/negativo/neutro.
Puoi verificare se funziona con
curl http://localhost:8081/ \
-X POST \
-H 'Content-Type: application/json' \
-d "{ \"inputs\": \"I am happy\" }"
che dovrebbe restituire un array di confidenza per ogni etichetta in condizioni operative normali.
Modelli supportati
- cardiffnlp/twitter-roberta-base-sentiment-latest · Hugging Face
- SamLowe/roberta-base-go_emotions · Hugging Face
Renderlo disponibile per la tua istanza Discourse
Nella maggior parte dei casi, lo eseguirai su un server dedicato a causa dell’accelerazione GPU. Quando lo fai, ti consiglio di eseguire un proxy inverso, terminare TLS e proteggere l’endpoint in modo che possa essere connesso solo dalla tua istanza Discourse.
Configurazione di Discourse AI
Discourse AI include impostazioni del sito per configurare il server di inferenza per i modelli open-source. Dovresti indicarlo al tuo server utilizzando l’impostazione ai_sentiment_model_configs.
Successivamente, abilita la classificazione attivando ai_sentiment_enabled.
