Sim, os modelos suportados são os listados no OP.
Eventualmente, adicionaremos suporte para classificar usando LLMs para pessoas cujo custo não é um problema.
Bem, todo o recurso é construído em torno da classificação de posts usando modelos de ML, então sim, você precisa de um lugar para executá-los.
E como o Discourse pode rodar no VPS mais barato que existe, rodar modelos de ML é de fato mais caro. Se você quiser ter o recurso da maneira mais barata possível, é possível executá-lo em um servidor com apenas um punhado de núcleos de CPU, desde que você tenha RAM suficiente para carregar os modelos.