Discourse IA

:discourse2: Résumé Intégration entre les fonctionnalités d’IA et Discourse
:globe_with_meridians: Site Web Discourse AI Features | Discourse - Civilized Discussion
:open_book: Guide d’installation Ce plugin est inclus dans le cœur de Discourse. Il n’est pas nécessaire d’installer le plugin séparément.

Discourse AI

Discourse AI est notre solution tout-en-un pour intégrer l’intelligence artificielle et Discourse, permettant de nouvelles fonctionnalités et l’amélioration de celles existantes.

Fonctionnalités de Discourse AI

Pour Discourse AI, nous avons choisi de garder la plupart des fonctionnalités dans un seul plugin que vous pouvez activer indépendamment et qui vous permet de les personnaliser pour les besoins de votre communauté.

Nous avons également fait de la non-dépendance à l’égard d’une seule API d’entreprise l’une de nos priorités, afin que chaque communauté puisse choisir le fournisseur qui lui convient. Équilibrer la confidentialité des données, les performances, les ensembles de fonctionnalités et la dépendance vis-à-vis des fournisseurs.

Bot IA

Le chatbot intelligent peut répondre à toutes les questions concernant votre communauté Discourse et plus encore. Le Bot IA a la capacité de rechercher dans votre instance Discourse actuelle et au-delà avec un support de persona pour répondre à tout type de questions que vous pourriez avoir.

Recherche IA

La recherche IA vous aide à trouver les sujets les plus pertinents en utilisant la similarité sémantique textuelle, allant au-delà de la correspondance exacte de mots-clés utilisée par la recherche traditionnelle. Cela permet de découvrir des sujets qui ne correspondent pas exactement mais qui sont toujours pertinents par rapport à la recherche initiale, vous aidant ainsi à trouver ce dont vous avez besoin.

Détecteur de spam IA

Nous proposons désormais une configuration facile de détection de spam alimentée par l’IA en un clic pour les communautés.

Automatisation + IA

Avec le plugin Automatisation, classez automatiquement vos publications et sujets par triage IA. Définissez des règles d’automatisation et le triage IA analysera les publications, effectuant des actions telles que masquer, taguer, signaler du contenu NSFW ou toxique, et bien plus encore. De plus, vous pouvez générer des rapports périodiques tels que des résumés de forum pour rester informé de l’activité de la communauté !

Assistant

L’Assistant vous aide dans votre parcours communautaire, que vous créiez des sujets/publications ou que vous lisiez. Il explique le texte, corrige, traduit, génère du contenu, des légendes et bien plus encore. Il est conçu pour améliorer la productivité des utilisateurs et la qualité globale des contributions.

Sujets similaires

Les sujets similaires vous aident à trouver les sujets les plus pertinents à lire ensuite après avoir terminé la lecture d’un sujet. Ces sujets sont recommandés en utilisant la similarité sémantique textuelle entre le sujet que vous lisez actuellement et tous les autres sujets de votre instance Discourse. Cela permet de découvrir des sujets plus pertinents et de maintenir l’engagement dans les communautés.

Sentiment

Le Sentiment vous aide à garder un œil sur votre communauté en analysant les publications et en fournissant des scores de sentiment et d’émotion pour vous donner une idée générale de votre communauté sur une période donnée. Ces informations peuvent aider à déterminer le type d’utilisateurs qui publient dans votre communauté et interagissent les uns avec les autres.

Résumer

Résumez les sujets et les canaux de discussion, pour les moments où vous avez besoin d’un moyen rapide de rattraper votre retard ou de comprendre ce qui se passe.

Configuration et détails

:information_source: Nous ajoutons constamment de nouvelles fonctionnalités et modifions nos fonctionnalités Discourse AI ! Veuillez consulter chaque fonctionnalité IA pour tous les détails, y compris la configuration, le support des fournisseurs, l’ensemble des fonctionnalités, et plus encore.


68 « J'aime »

2 messages ont été déplacées vers un nouveau sujet : Gérer les coûts des IA consommables

Je voudrais suggérer 2 fonctionnalités très utiles : le comptage des tokens utilisés par les utilisateurs et la création de leurs propres personas pour l’IA Bot.

7 « J'aime »

Salut @Oniel :slight_smile:

Pour faciliter le suivi des demandes de fonctionnalités et voir leur popularité, il est préférable de créer un nouveau sujet Feature pour chaque suggestion. :+1: Si vous pouviez également inclure autant de détails que possible sur les raisons pour lesquelles vous pensez que chaque idée devrait être développée, cela aiderait également à renforcer l’argument en faveur de leur adoption.

8 « J'aime »

Je ne vois qu’un chatbot dans mes plugins. Plan d’affaires.

2 « J'aime »

Nous essayons de réaliser une version de cela à l’avenir pour calculer les coûts/l’utilisation des jetons des LLM

Je pense que vous parlez de Nouvel éditeur de persona IA pour Discourse

3 « J'aime »

Deux questions :

  • Y a-t-il des projets pour prendre en charge Anthropic Claude 3 Sonnet/Opus à partir d’AWS Bedrock ?
  • Y a-t-il des limitations quant aux fonctionnalités d’IA du plugin prises en charge par AWS Bedrock ?
3 « J'aime »

J’aimerais que nous puissions prendre en charge Opus, mais malheureusement AWS Bedrock doit d’abord le prendre en charge.

Haiku et Sonnet via Bedrock sont maintenant pris en charge !

Hmm, la seule chose à laquelle je pense est que je ne suis pas sûr s’il existe des modèles d’intégration sur Bedrock que nous prenons en charge @Falco ? Mais les personnes qui nous hébergent bénéficient déjà de notre modèle open source et Cloudflare/Google propose des solutions d’intégration gratuites, donc c’est difficile à justifier. Cela dit, les modèles Cohere sont là, donc nous voulons probablement en ajouter.

5 « J'aime »

Oui, désolé, on me dit qu’il sortira probablement dans le mois.

Je demande car, du moins pour l’instant et pour l’avenir prévisible, nous ne pouvons utiliser que notre propre instance d’AWS Bedrock pour notre IA.

Donc, si j’ai activé ai sentiment enabled, dois-je définir ai sentiment inference service api endpoint sur quelque chose pour Bedrock, ou si je laisse la valeur par défaut de https://sentiment-testing.demo-by-discourse.com mais que j’active Bedrock ci-dessous, le sentiment sera-t-il alors traité par Bedrock ?

2 « J'aime »

Nous pouvons utiliser Bedrock pour tous les besoins en LLM dans le plugin, tels que le bot IA, l’amélioration de la recherche avec HyDE, le triage IA, le résumé de sujets, la génération de titres de discussion, les récapitulatifs hebdomadaires, etc.

Les fonctionnalités qui dépendent de modèles non LLM, tels que les embeddings et le sentiment, ne fonctionnent pas encore avec Bedrock, mais nous prévoyons de les rendre compatibles à long terme.

7 « J'aime »

Où est hébergé l’URL de sentiment actuel https://sentiment-testing.demo-by-discourse.com ? Avons-nous des limitations à cela (sur Enterprise) puisque je vois qu’il s’agit d’une URL de test/démonstration ?

Existe-t-il une URL de production sur laquelle nous devrions être, sinon l’URL de test/démonstration ?

2 « J'aime »

Bien que cette URL soit définie par défaut sur un serveur que nous hébergeons pour que les gens puissent faire fonctionner le plugin immédiatement, les sites hébergés par nos soins ont le plugin pointé vers un serveur dans le même centre de données où votre forum est hébergé, de la même manière que nous hébergeons votre serveur de base de données et de cache.

3 « J'aime »

Est-ce que la même chose est vraie pour les Embeddings ?

3 « J'aime »

Oui, exactement pareil.

4 « J'aime »

13 messages ont été déplacées vers un nouveau sujet : GPT 3.5 n’est pas configuré malgré la présence d’une clé API

Eh bien, c’était rapide. :smiley:

5 « J'aime »

Merci. Nous attendons cela avec impatience également.

1 « J'aime »

Si nous renseignons une clé OpenAI, y a-t-il un moyen de savoir quel utilisateur utilise le plus de jetons (pour mieux évaluer les coûts) et/ou pouvons-nous limiter l’utilisation en fonction des coûts par utilisateur ?

La clé OpenAI fonctionnera-t-elle pour tous les bots et toutes les personas ? Ou avons-nous besoin de différents LLM pour différentes fonctionnalités ? Je ne suis pas sûr à 100%, c’est un peu confus.

2 « J'aime »

Oui, cela est stocké dans la table ai_api_audit_logs.

Oui, tous les bots et personas.

7 « J'aime »

Un message a été divisé en un nouveau sujet : Claude 3 Opus tool calling is very verbose