Discourse AI

:discourse2: Resumo Integração entre recursos de IA e Discourse
:globe_with_meridians: Website Discourse AI Features | Discourse - Civilized Discussion
:open_book: Guia de Instalação Este plugin é empacotado com o core do Discourse. Não há necessidade de instalar o plugin separadamente.

Discourse AI

O Discourse AI é nossa solução completa para integrar Inteligência Artificial e Discourse, permitindo novos recursos e aprimorando os existentes.

Recursos do Discourse AI

Para o Discourse AI, optamos por manter a maioria dos recursos em um único plugin que você pode habilitar independentemente e permitir que você os personalize para as necessidades da sua comunidade.

Também fizemos uma de nossas prioridades não te prender a uma única empresa de API, para que cada comunidade possa escolher o provedor que faz sentido para ela. Equilibrando privacidade de dados, desempenho, conjuntos de recursos e dependência de fornecedor.

Bot de IA

O chatbot inteligente pode responder a todas as perguntas sobre sua comunidade Discourse e muito mais. O Bot de IA tem o poder de pesquisar em sua instância Discourse atual e além com suporte a persona para responder a qualquer tipo de pergunta que você possa ter.

Pesquisa de IA

A Pesquisa de IA ajuda você a encontrar os tópicos mais relevantes usando similaridade textual semântica que vai além de uma correspondência exata de palavras-chave usada pela pesquisa tradicional. Isso resulta na descoberta de tópicos que não são correspondências exatas, mas ainda relevantes para a pesquisa inicial, ajudando você a encontrar o que precisa.

Detector de spam de IA

Agora oferecemos uma configuração fácil de detecção de spam com um clique, alimentada por IA, para comunidades.

Automação + IA

Com o plugin Automação, classifique automaticamente suas postagens e tópicos por triagem de IA. Defina regras de automação e a triagem de IA analisará as postagens, executando ações como ocultar, marcar, sinalizar conteúdo NSFW ou tóxico e muito mais. Além disso, você pode gerar relatórios periódicos, como resumos de fóruns, para se manter atualizado sobre a atividade da comunidade!

Auxiliar

O Auxiliar ajuda você em sua jornada na comunidade, seja criando tópicos/postagens ou lendo. Inclui explicar texto, revisar, traduzir, gerar conteúdo, legendas e muito mais. Ele foi projetado para aumentar a produtividade do usuário e melhorar a qualidade geral das contribuições.

Tópicos relacionados

Tópicos relacionados ajudam você a encontrar os tópicos mais relevantes para ler em seguida, após terminar de ler um tópico. Esses tópicos são recomendados usando similaridade textual semântica entre o tópico atual que você está lendo e todos os outros tópicos em sua instância Discourse. Isso resulta na descoberta de tópicos mais relevantes e no engajamento contínuo nas comunidades.

Sentimento

O Sentimento ajuda você a acompanhar sua comunidade, analisando postagens e fornecendo pontuações de sentimento e emoção para dar uma visão geral da sua comunidade em qualquer período de tempo. Essas informações podem ajudar a determinar o tipo de usuários que postam em sua comunidade e interagem uns com os outros.

Resumir

Resuma tópicos e canais de chat, para momentos em que você precisa de uma maneira rápida de se atualizar ou descobrir o que está acontecendo.

Configuração e detalhes

:information_source: Estamos sempre adicionando novas funcionalidades e mudando nossos recursos do Discourse AI! Por favor, verifique cada recurso de IA para obter todos os detalhes, incluindo configuração, suporte a provedores, conjunto de recursos e muito mais.


Isenção de responsabilidade

:warning: Estamos sendo muito cuidadosos com nossa experimentação em torno da IA. Os algoritmos em que estamos nos baseando são tão bons quanto os dados em que foram treinados. Viés, imprecisões e alucinações são todas possibilidades que precisamos considerar. Revisamos, testamos e refinamos regularmente nossos recursos de IA.

Auto-hospedagem

Verifique a documentação sobre como auto-hospedar os serviços de API em Discourse AI - Self-Hosted Guide

FAQ

Isso estará disponível na hospedagem do Discourse? Quais planos?

O plugin Discourse AI e todos os recursos agora estão disponíveis para clientes hospedados nos planos Pro, Business e Enterprise.

:partying_face: Atualizações

A CDCK oferecerá uma versão SaaS da API de serviços de IA para comunidades auto-hospedadas?

No momento não, mas isso é algo que podemos considerar, dado o feedback de nossa comunidade.

68 curtidas

2 posts foram divididos em um novo tópico: Gerenciando custos de IA consumíveis

Gostaria de sugerir 2 recursos muito úteis: contagem de tokens utilizados pelos usuários e a criação de personas próprias para o Bot de IA.

7 curtidas

Olá @Oniel :slight_smile:

Para facilitar o rastreamento e a visualização da popularidade das solicitações de recursos, é melhor iniciar um novo tópico de Feature para cada sugestão. :+1: Se você puder incluir o máximo de detalhes sobre por que acha que cada ideia deve ser desenvolvida, isso também ajuda a fortalecer o argumento para sua adoção.

8 curtidas

Eu só vejo um chatbot nos meus plugins. Plano de negócios.

2 curtidas

Estamos tentando alcançar uma versão disso no futuro para calcular custos/uso de tokens de LLM

Acredito que você esteja falando sobre o Novo Editor de Persona de IA para Discourse

3 curtidas

Duas perguntas:

  • Existem planos para dar suporte ao Anthropic Claude 3 Sonnet/Opus do AWS Bedrock?
  • Existem limitações para quais recursos de IA do plugin são suportados pelo AWS Bedrock?
3 curtidas

Gostaríamos de poder dar suporte ao Opus, mas infelizmente o AWS Bedrock precisa dar suporte primeiro.

Haiku e Sonnet via Bedrock agora são suportados!

hmm, a única limitação que consigo pensar é que não tenho certeza se existem modelos de embedding no Bedrock que suportamos @Falco? Mas as pessoas que nos hospedam já recebem nosso modelo de código aberto e o Cloudflare/Google têm soluções gratuitas de embedding, então é difícil justificar. Dito isso, os modelos Cohere estão lá, então provavelmente queremos adicionar isso.

5 curtidas

Sim, desculpe, fui informado que provavelmente será lançado ainda este mês.

Pergunto porque, pelo menos por enquanto e no futuro previsível, somos incapazes de usar qualquer coisa além de nossa própria instância de AWS Bedrock para nossa IA.

Portanto, se eu tiver ai sentiment enabled marcado, preciso definir o ai sentiment inference service api endpoint para algo para o Bedrock, ou se eu deixar o valor padrão de https://sentiment-testing.demo-by-discourse.com mas habilitar o Bedrock abaixo, o sentimento será feito através do Bedrock?

2 curtidas

Podemos usar o Bedrock para quaisquer necessidades de LLM no plugin, como Bot de IA, aprimoramento de pesquisa com HyDE, Triagem de IA, Resumo de Tópicos, geração de títulos de chat, resumos semanais, etc.

Recursos que dependem de modelos não LLM, como embeddings e sentimento, ainda não funcionam com o Bedrock, mas é algo que planejamos tornar compatível a longo prazo.

7 curtidas

Onde está hospedado o URL de sentimento atual https://sentiment-testing.demo-by-discourse.com? Temos alguma limitação quanto a isso (no Enterprise), já que vejo que é um URL de teste/demonstração?

Existe um URL de produção em que deveríamos estar, caso não seja o URL de teste/demonstração?

2 curtidas

Embora esse URL seja um padrão definido para um servidor que hospedamos para que as pessoas possam usar o plugin imediatamente, sites hospedados por nós têm o plugin apontado para um servidor no mesmo data center onde seu fórum está hospedado, da mesma forma que hospedamos seu servidor de banco de dados e cache.

3 curtidas

O mesmo é verdade para Embeddings?

3 curtidas

Sim, exatamente o mesmo.

4 curtidas

13 posts foram divididos em um novo tópico: GPT 3.5 não está configurado apesar de ter uma chave de API

Bem, isso foi rápido. :smiley:

5 curtidas

Obrigado. Estamos ansiosamente aguardando isso também.

1 curtida

Se preenchermos uma chave OpenAI, há alguma maneira de saber qual usuário está usando mais tokens (ter uma noção melhor do custo) e/ou podemos limitar o uso com base no custo por usuário?

A chave OpenAI funcionará para todos os bots e personas? Ou precisamos de diferentes LLMs para recursos diferentes? Não tenho 100% de certeza sobre isso, é um pouco confuso.

2 curtidas

Sim, isso é armazenado na tabela ai_api_audit_logs.

Sim, todos os bots e personas.

7 curtidas

Uma postagem foi dividida em um novo tópico: Claude 3 Opus tool calling is very verbose