Estamos entusiasmados em anunciar que nossos clientes hospedados agora podem alimentar todos os recursos de IA do Discourse usando nosso próprio LLM[1] de pesos abertos e hospedado, pré-configurado e incluído gratuitamente com seu serviço de hospedagem.
Isso significa que todos os recursos de IA estão disponíveis para clientes Starter, Pro, Business e Enterprise sem a necessidade de qualquer provedor de LLM de terceiros.
Habilitando o LLM hospedado
Isso já deve estar disponível e ativado em seu site na página de configuração do LLM:
Admin → Plugins → Discourse AI → LLMs
Por padrão, “CDCK Hosted Small LLM” será selecionado como seu LLM padrão, e também deve estar disponível para seleção por qualquer persona em seu site.
Uso e limites
O Discourse mede o uso do LLM hospedado por meio de um sistema de créditos. Cada token de solicitação ou resposta consome 1 crédito. Os créditos são proporcionais ao seu nível de hospedagem e são redefinidos diariamente.
✱ Alguns recursos, como Detecção de Spam por IA, não serão contabilizados em seus créditos
Os limites de crédito por nível podem ser encontrados na página de preços em nosso site. Depois de atingir seu limite diário, quaisquer recursos de IA que dependam do LLM serão pausados até que os créditos sejam redefinidos no dia seguinte.
Se você estiver ficando sem créditos rapidamente, considere usar o sistema de cota de LLM para definir restrições por usuário ou por grupo. A atualização para um nível mais alto é outra opção se você precisar de capacidade adicional.
Você pode revisar o uso de IA do seu site a qualquer momento na página de uso de IA no painel de administração.
Para mais detalhes sobre o que fazer quando os créditos se esgotam, consulte:
Large Language Model ↩︎
