Discourse AI - Sentimento

Sì, i modelli supportati sono quelli elencati nell’OP.

Alla fine aggiungeremo il supporto per la classificazione utilizzando LLM per le persone per cui il costo non è un problema.

Bene, l’intera funzionalità è costruita attorno alla classificazione dei post utilizzando modelli ML, quindi sì, hai bisogno di un posto dove eseguirli.

E poiché Discourse può essere eseguito sul VPS più economico in circolazione, l’esecuzione di modelli ML è effettivamente più costosa. Se vuoi avere la funzionalità nel modo più economico possibile, è fattibile eseguirla su un server con solo una manciata di core CPU, purché tu abbia abbastanza RAM per caricare i modelli.

1 Mi Piace