Este guia explica como configurar e gerenciar cotas de uso para Modelos de Linguagem Grandes (LLMs) no Discourse AI.
Nível de usuário necessário: Administrador
Resumo
As Cotas de Uso de LLM permitem que os administradores controlem e monitorem o consumo de recursos de IA definindo limites de uso de tokens e interações para diferentes grupos de usuários. Isso ajuda a manter a eficiência de custos, garantindo o acesso justo aos recursos de IA em sua comunidade.
Configuração
Acessando as configurações de cota
- Navegue até o painel de administração do seu site
- Vá para
Admin > Plugins > Discourse AI > LLM Models - Selecione o modelo LLM que você deseja configurar
Configurando cotas
Para cada grupo de usuários, você pode configurar:
- Uso máximo de tokens
- E/Ou número máximo de interações de IA
- Duração do período de redefinição
Opções de duração
Escolha entre períodos de redefinição predefinidos:
- 1 hora
- 6 horas
- 24 horas
- 7 dias
- Duração personalizada (especificada em horas)
Monitoramento de uso
Visualizando estatísticas
Os administradores podem monitorar o consumo de tokens e o consumo de uso em: https://NOMEDOSITE/admin/plugins/discourse-ai/ai-usage
- Navegue até
Admin > Plugins > Discourse AI - Selecione a guia “Uso”
- Filtre por intervalo de datas, grupo de usuários ou métricas específicas
Experiência do usuário
Notificações de cota
Os usuários recebem feedback claro ao se aproximarem ou atingirem os limites de cota:
- Status de uso atual
- Tempo até a próxima redefinição da cota
Mensagens de erro
Quando uma cota é excedida, os usuários veem:
- Uma notificação clara de que o limite da cota foi atingido
- O tempo restante até a próxima redefinição da cota
Melhores práticas
- Comece conservadoramente: Comece com cotas mais baixas e ajuste com base nos padrões de uso reais
- Alocação baseada em grupo: Atribua cotas diferentes com base nas necessidades e funções do grupo de usuários
- Monitoramento regular: Revise os padrões de uso para otimizar as configurações de cota
- Comunicação clara: Informe os usuários sobre os limites de cota e os períodos de redefinição
Problemas e soluções comuns
Problema: Usuários atingindo limites com frequência
Solução: Considere:
- Aumentar os limites de cota para grupos específicos
- Reduzir o período de redefinição
- Criar grupos especializados para usuários de alto uso
Problema: Cotas não utilizadas
Solução:
- Ajuste os limites para baixo para otimizar a alocação de recursos
- Revise as atribuições de grupo para garantir que as cotas correspondam às necessidades dos usuários
Perguntas frequentes
P: As cotas podem ser suspensas temporariamente?
R: Sim, os administradores podem desativar temporariamente a aplicação de cotas para grupos específicos ou para todo o site.
P: Cotas não utilizadas são acumuladas?
R: Não, as cotas são redefinidas completamente no final de cada período.
P: Diferentes modelos de LLM podem ter cotas diferentes?
R: Sim, as cotas podem ser configuradas independentemente para cada LLM.
P: O que acontece se várias cotas forem definidas para um único LLM?
R: As cotas são baseadas em grupo e aplicadas por usuário. Para um usuário exceder a cota, o usuário deve exceder a cota em todos os grupos. Isso significa que, se você der aos administradores uma cota muito flexível e ao nível de confiança 1 uma mais restritiva, a cota de administrador será aplicada aos administradores.
P: O que acontece se nenhuma cota for aplicada a um LLM?
R: Nada de especial acontecerá, todo o uso de LLM será ilimitado.
P: E se eu quiser cotas diferentes para recursos diferentes?
R: O Discourse AI permite que você defina vários LLMs que contatam o mesmo endpoint e até mesmo reutilizam chaves, se você quiser dar uma cota ao AI Helper e outra ao AI Bot, defina 2 LLMs.


