Das Discourse AI-Plugin unterstützt die Anforderung der Emotions-/Stimmungsklassifizierung neuer Beiträge, die in der Datenbank gespeichert und in Berichten und Admin-Dashboards verwendet werden können.
Ausführung mit HuggingFace TEI
HuggingFace bietet ein hervorragendes Container-Image, mit dem Sie schnell loslegen können.
Zum Beispiel:
mkdir -p /opt/tei-cache
docker run --rm --gpus all --shm-size 1g -p 8081:80 \
-v /opt/tei-cache:/data \
ghcr.io/huggingface/text-embeddings-inference:latest \
--model-id cardiffnlp/twitter-roberta-base-sentiment-latest \
--revision refs/pr/30
Damit sollten Sie eine lokale Instanz von ‘cardiffnlp/twitter-roberta-base-sentiment-latest’ eingerichtet haben, ein offenes Modell, das Beiträge in positiv/negativ/neutral klassifizieren kann.
Sie können überprüfen, ob es funktioniert, mit
curl http://localhost:8081/ \
-X POST \
-H 'Content-Type: application/json' \
"{ \"inputs\": \"I am happy\" }"
Dies sollte im Normalbetrieb ein Array von Konfidenzen für jedes Label zurückgeben.
Unterstützte Modelle
- cardiffnlp/twitter-roberta-base-sentiment-latest · Hugging Face
- SamLowe/roberta-base-go_emotions · Hugging Face
Bereitstellung für Ihre Discourse-Instanz
Meistens werden Sie dies aufgrund der GPU-Beschleunigung auf einem dedizierten Server ausführen. Dabei empfehle ich, einen Reverse-Proxy zu verwenden, TLS-Terminierung durchzuführen und den Endpunkt abzusichern, sodass nur Ihre Discourse-Instanz darauf zugreifen kann.
Konfiguration von Discourse AI
Discourse AI enthält Site-Einstellungen zur Konfiguration des Inferenzservers für Open-Source-Modelle. Sie sollten ihn mit der Einstellung ai_sentiment_model_configs auf Ihren Server verweisen.
Aktivieren Sie anschließend die Klassifizierung, indem Sie ai_sentiment_enabled umschalten.
