Il plugin Discourse AI supporta la richiesta di classificazione delle emozioni/sentimenti dei nuovi post, che viene memorizzata nel database e può essere utilizzata in report e dashboard di amministrazione.
Esecuzione con HuggingFace TEI
HuggingFace fornisce un’immagine container eccezionale che ti permette di essere operativo rapidamente.
Ad esempio:
mkdir -p /opt/tei-cache
docker run --rm --gpus all --shm-size 1g -p 8081:80 \
-v /opt/tei-cache:/data \
ghcr.io/huggingface/text-embeddings-inference:latest \
--model-id cardiffnlp/twitter-roberta-base-sentiment-latest \
--revision refs/pr/30
Questo dovrebbe permetterti di avviare un’istanza locale di ‘cardiffnlp/twitter-roberta-base-sentiment-latest’, un modello aperto in grado di classificare i post in positivo/negativo/neutro.
Puoi verificare se funziona con
curl http://localhost:8081/ \
-X POST \
-H 'Content-Type: application/json' \
"{ \"inputs\": \"I am happy\" }"
Che dovrebbe restituire un array di confidenza per ogni etichetta in condizioni operative normali.
Modelli supportati
- cardiffnlp/twitter-roberta-base-sentiment-latest · Hugging Face
- SamLowe/roberta-base-go_emotions · Hugging Face
Rendilo disponibile per la tua istanza Discourse
Nella maggior parte dei casi, eseguirai questo su un server dedicato a causa dell’accelerazione GPU. Quando lo fai, consiglio di eseguire un reverse proxy, eseguire la terminazione TLS e proteggere l’endpoint in modo che possa essere connesso solo dalla tua istanza Discourse.
Configurazione di Discourse AI
Discourse AI include impostazioni del sito per configurare il server di inferenza per modelli open-source. Dovresti puntarlo al tuo server utilizzando l’impostazione ai_sentiment_model_configs.
Successivamente, abilita la classificazione attivando ai_sentiment_enabled.
