El plugin Discourse AI tiene soporte para solicitar la clasificación de emociones/sentimientos de nuevas publicaciones, que se almacena en la base de datos y se puede utilizar en informes y paneles de administración.
Ejecución con HuggingFace TEI
HuggingFace proporciona una imagen de contenedor impresionante que puede ponerlo en funcionamiento rápidamente.
Por ejemplo:
mkdir -p /opt/tei-cache
docker run --rm --gpus all --shm-size 1g -p 8081:80 \
-v /opt/tei-cache:/data \
ghcr.io/huggingface/text-embeddings-inference:latest \
--model-id cardiffnlp/twitter-roberta-base-sentiment-latest \
--revision refs/pr/30
Esto debería ponerlo en funcionamiento con una instancia local de ‘cardiffnlp/twitter-roberta-base-sentiment-latest’, un modelo abierto que puede clasificar publicaciones en positivo/negativo/neutral.
Puede comprobar si está funcionando con
curl http://localhost:8081/ \
-X POST \
-H 'Content-Type: application/json' \
"{ \"inputs\": \"I am happy\" }"
Lo que debería devolver una matriz de confianza para cada etiqueta en condiciones normales de funcionamiento.
Modelos compatibles
- cardiffnlp/twitter-roberta-base-sentiment-latest · Hugging Face
- SamLowe/roberta-base-go_emotions · Hugging Face
Hacerlo disponible para su instancia de Discourse
La mayoría de las veces, ejecutará esto en un servidor dedicado debido a la aceleración de la GPU. Al hacerlo, recomiendo ejecutar un proxy inverso, realizar la terminación TLS y asegurar el punto final para que solo pueda ser conectado por su instancia de Discourse.
Configuración de Discourse AI
Discourse AI incluye configuraciones del sitio para configurar el servidor de inferencia para modelos de código abierto. Debería apuntarlo a su servidor utilizando la configuración ai_sentiment_model_configs.
Después de eso, habilite la clasificación alternando ai_sentiment_enabled.
