A página de configurações do Discourse AI agora tem uma página de “Recursos”, onde os administradores podem visualizar rapidamente todos os recursos de IA disponíveis e prontos para serem personalizados para melhor se adequar às suas comunidades.
Desde os primórdios do Discourse AI, uma solicitação recorrente de nossos usuários tem sido uma maneira de personalizar os prompts que alimentam recursos como Resumo de Tópicos ou Revisão. Queríamos fazer isso, mas precisava ser feito de uma maneira sustentável e que não resultasse em recursos quebrados.
Outra questão era que, à medida que nosso conjunto de recursos crescia, também crescia o número de configurações do site para o plugin de IA, e era difícil rastrear quais configurações afetavam quais recursos.
Apresentando a página de Recursos
A nova página de Recursos do plugin de IA permite que os administradores:
-
Definam um LLM padrão para todos os recursos do Discourse AI
-
Vejam rapidamente quais recursos estão ativados ou desativados
-
Revisem rapidamente quais Personas e LLMs alimentam cada recurso individual
-
Editem as configurações relacionadas a cada recurso por meio da página de Edição
Estamos usando uma nova abordagem de design para esta página para aliviar a carga cognitiva dos administradores, ao mesmo tempo em que nos mantemos fiéis às nossas raízes de tornar o Discourse completamente personalizável. Informe-nos se essa abordagem está funcionando para você.
Personas como o bloco de construção da IA
Com esta atualização, introduzimos uma grande mudança para suportar personalizações extensas de prompts, bem como melhor compatibilidade de LLM para todos os nossos recursos. Cada recurso no Discourse AI agora é suportado por uma Persona.
Primeiro introduzimos as Personas como uma maneira de ter vários Bots de IA conversacionais. Com o tempo, fizemos muitas atualizações em nosso sistema de Personas, incluindo suporte para Saídas Estruturadas e exemplos de turnos de conversa. Assim, as Personas no Discourse são agora uma plataforma de agente completa que sustenta todos os nossos recursos.
Isso significa que podemos permitir a personalização de prompts sem nos preocuparmos muito com a análise da saída do LLM, graças à natureza determinística das saídas estruturadas. Agora também podemos suportar casos de uso avançados, como permitir chamadas de ferramentas e uploads de RAG em nosso recurso de Explicação do Assistente de IA, e muito mais.
Juntamente com essa incrível quantidade de personalização, também fornecemos Personas padrão para todos os recursos integrados. Isso é muito útil para usuários casuais e administradores, que agora podem habilitar muitos recursos úteis de IA com apenas alguns cliques.
