Das Discourse AI Plugin unterstützt das Anfordern einer Emotions-/Sentiment-Klassifizierung neuer Beiträge, die in der Datenbank gespeichert wird und in Berichten und Admin-Dashboards verwendet werden kann.
Ausführung mit HuggingFace TEI
HuggingFace bietet ein hervorragendes Container-Image, mit dem Sie schnell starten können.
Zum Beispiel:
mkdir -p /opt/tei-cache
docker run --rm --gpus all --shm-size 1g -p 8081:80 \
-v /opt/tei-cache:/data \
ghcr.io/huggingface/text-embeddings-inference:latest \
--model-id cardiffnlp/twitter-roberta-base-sentiment-latest \
--revision refs/pr/30
Dies sollte Sie mit einer lokalen Instanz von ‘cardiffnlp/twitter-roberta-base-sentiment-latest’ zum Laufen bringen, einem Open-Source-Modell, das Beiträge in positiv/negativ/neutral klassifizieren kann.
Sie können überprüfen, ob es funktioniert, mit
curl http://localhost:8081/ \
-X POST \
-H 'Content-Type: application/json' \
-d "{ \"inputs\": \"I am happy\" }"
Was unter normalen Betriebsbedingungen ein Array von Konfidenzwerten für jedes Label zurückgeben sollte.
Unterstützte Modelle
- cardiffnlp/twitter-roberta-base-sentiment-latest · Hugging Face
- SamLowe/roberta-base-go_emotions · Hugging Face
Bereitstellung für Ihre Discourse-Instanz
Meistens werden Sie dies aufgrund der GPU-Beschleunigung auf einem dedizierten Server ausführen. Wenn Sie dies tun, empfehle ich, einen Reverse-Proxy auszuführen, TLS-Terminierung durchzuführen und den Endpunkt zu sichern, damit er nur von Ihrer Discourse-Instanz verbunden werden kann.
Konfigurieren von Discourse AI
Discourse AI enthält Website-Einstellungen, um den Inferenzserver für Open-Source-Modelle zu konfigurieren. Sie sollten darauf mit der Einstellung ai_sentiment_model_configs auf Ihren Server verweisen.
Aktivieren Sie danach die Klassifizierung, indem Sie ai_sentiment_enabled umschalten.
