Ja, die unterstützten Modelle sind die, die in der OP aufgeführt sind.
Wir werden irgendwann die Unterstützung für die Klassifizierung mit LLMs für Leute hinzufügen, deren Kosten keine Rolle spielen.
Nun, die gesamte Funktion ist darauf ausgelegt, Beiträge mit ML-Modellen zu klassifizieren, daher benötigen Sie irgendwo, um diese auszuführen.
Und da Discourse auf dem billigsten VPS laufen kann, ist das Ausführen von ML-Modellen tatsächlich teurer. Wenn Sie die Funktion auf die billigste Art und Weise haben möchten, ist es machbar, sie auf einem Server mit nur einer Handvoll CPU-Kernen auszuführen, solange Sie genügend RAM haben, um die Modelle zu laden.