Discourse AI - Sentimiento

Sí, los modelos compatibles son los que se enumeran en el OP.

Eventualmente agregaremos soporte para clasificar usando LLMs para personas cuyo costo no sea un problema.

Bueno, toda la función se basa en clasificar publicaciones usando modelos de ML, así que sí, necesitas un lugar para ejecutarlos.

Y dado que Discourse puede ejecutarse en el VPS más barato que existe, ejecutar modelos de ML es, de hecho, más caro. Si quieres tener la función de la manera más económica posible, es factible ejecutarla en un servidor con solo un puñado de núcleos de CPU, siempre que tengas suficiente RAM para cargar los modelos.

1 me gusta