Discourse AI - Sentimento

Sim, os modelos suportados são os listados no OP.

Eventualmente, adicionaremos suporte para classificar usando LLMs para pessoas cujo custo não é um problema.

Bem, todo o recurso é construído em torno da classificação de posts usando modelos de ML, então sim, você precisa de um lugar para executá-los.

E como o Discourse pode rodar no VPS mais barato que existe, rodar modelos de ML é de fato mais caro. Se você quiser ter o recurso da maneira mais barata possível, é possível executá-lo em um servidor com apenas um punhado de núcleos de CPU, desde que você tenha RAM suficiente para carregar os modelos.

1 curtida