是的,支持的模型是 OP 中列出的那些。
我们最终将为那些不介意成本的人添加使用 LLM 进行分类的支持。
嗯,整个功能都是围绕使用 ML 模型对帖子进行分类而构建的,所以是的,你需要一个地方来运行它们。
而且,由于 Discourse 可以在最便宜的 VPS 上运行,运行 ML 模型确实更昂贵。如果你想以最便宜的方式使用该功能,可以在只有少量 CPU 核心的服务器上运行它,只要有足够的 RAM 来加载模型即可。
是的,支持的模型是 OP 中列出的那些。
我们最终将为那些不介意成本的人添加使用 LLM 进行分类的支持。
嗯,整个功能都是围绕使用 ML 模型对帖子进行分类而构建的,所以是的,你需要一个地方来运行它们。
而且,由于 Discourse 可以在最便宜的 VPS 上运行,运行 ML 模型确实更昂贵。如果你想以最便宜的方式使用该功能,可以在只有少量 CPU 核心的服务器上运行它,只要有足够的 RAM 来加载模型即可。