Il est important de comprendre les besoins de l’administrateur de votre communauté et de ses membres lors du choix d’un grand modèle linguistique (LLM) pour alimenter les fonctionnalités de Discourse AI.
Plusieurs facteurs peuvent influencer vos décisions :
- Performance pour le cas d’utilisation : Recherchez-vous le modèle le plus performant ? Les performances peuvent varier en fonction de la tâche (par exemple, résumé, recherche, raisonnement complexe, détection de spam). L’évaluation est basée sur la capacité du modèle à générer des réponses correctes, pertinentes et cohérentes.
- Longueur du contexte : La fenêtre de contexte est la quantité de texte qu’un modèle peut « voir » et considérer à la fois. Des fenêtres de contexte plus grandes permettent de traiter plus d’informations (par exemple, des sujets plus longs pour le résumé) et de maintenir la cohérence sur des interactions plus longues.
- Compatibilité : Le modèle est-il pris en charge nativement par le plugin Discourse AI ? Nécessitera-t-il des points d’accès API ou une configuration spécifiques ? Consultez la documentation du plugin pour connaître les fournisseurs et les modèles pris en charge.
- Prise en charge linguistique : Bien que de nombreux LLM de premier plan gèrent bien plusieurs langues, les performances peuvent varier. Si votre communauté utilise principalement une langue autre que l’anglais, il est recommandé de tester des modèles spécifiques pour cette langue.
- Capacités multimodales : Certaines fonctionnalités, comme le triage IA (détection NSFW), nécessitent des modèles capables de traiter des images (vision). Assurez-vous que le modèle choisi prend en charge les modalités requises.
- Vitesse et modes : Les modèles plus grands et plus puissants peuvent être plus lents. Pour des fonctionnalités en temps réel comme l’assistant IA ou la recherche, des modèles plus rapides peuvent offrir une meilleure expérience utilisateur. Certains modèles (comme Claude 3.7 Sonnet) proposent différents modes, permettant un compromis entre vitesse et raisonnement plus approfondi.
- Coût : Le budget est souvent un facteur clé. Les coûts des modèles varient considérablement en fonction du fournisseur et du niveau du modèle. Les coûts sont généralement mesurés par jeton (entrée et sortie). Les modèles plus rapides/plus petits sont généralement moins chers que les modèles grands/haute performance. Les modèles open source peuvent souvent être exécutés de manière plus rentable en fonction de l’hébergement.
- Préoccupations relatives à la confidentialité : Différents fournisseurs de LLM ont des politiques d’utilisation des données et de confidentialité variables. Examinez les conditions d’utilisation, en particulier concernant l’utilisation potentielle de vos données à des fins d’entraînement. Certains fournisseurs proposent des options de rétention de données nulle.
- Open Source vs. Propriétaire : Les modèles open source offrent transparence et potentiel d’auto-hébergement ou de réglage fin, bien qu’ils puissent nécessiter plus d’efforts techniques. Les modèles propriétaires sont généralement plus faciles à utiliser via des API mais offrent moins de contrôle et de transparence.
Choisir un LLM pour les fonctionnalités de Discourse AI
Le paysage des LLM évolue rapidement. Le tableau ci-dessous donne un aperçu général des modèles actuellement populaires et performants adaptés à diverses fonctionnalités de Discourse AI, classés par leurs forces typiques et leurs profils de coûts. Les modèles de chaque catégorie sont listés par ordre alphabétique.
Ce sont des directives générales. Vérifiez toujours la documentation officielle du plugin Discourse AI pour la liste la plus à jour des modèles pris en charge et des configurations requises. Les performances et les coûts changent fréquemment ; consultez la documentation du fournisseur de LLM pour les derniers détails. La disponibilité et les performances des modèles open source peuvent dépendre du fournisseur spécifique ou de la configuration d’hébergement.
Une option alternative pour les clients hébergés est d’utiliser les LLM open-weight préconfigurés hébergés par Discourse. Ceux-ci peuvent souvent être activés via Admin → Paramètres → IA →
ai_llm_enabled_modelsou des paramètres de fonctionnalités spécifiques.
| Catégorie | Modèle | Fournisseur | Principales forces / Cas d’utilisation | Notes |
|---|---|---|---|---|
| Performance/Raisonnement de pointe | Claude 3.7 Sonnet (Thinking) | Anthropic | Capacité de raisonnement maximale, tâches complexes, analyse, génération | Utilise plus de ressources/temps que le mode normal, excellente vision |
| DeepSeek-R1 | DeepSeek | Fort raisonnement, compétitif avec les meilleurs, codage, mathématiques | Option Open Source, coût potentiellement inférieur aux équivalents propriétaires | |
| Gemini 2.5 Pro | Haute performance, très grande fenêtre de contexte, multimodal fort | Excellent polyvalent, s’intègre bien à l’écosystème Google | ||
| OpenAI o1 / o1-pro | OpenAI | Raisonnement de pointe, tâches complexes, génération | Coût le plus élevé, o1-pro probablement nécessaire pour une capacité maximale via API |
|
| Équilibré (Polyvalent) | Claude 3.7 Sonnet (Regular) | Anthropic | Haute performance, bon raisonnement, grand contexte, vision, mode plus rapide | Excellent choix par défaut, équilibre vitesse et capacité |
| DeepSeek-V3 | DeepSeek | Fortes performances générales, bon rapport qualité-prix | Option Open Source, rentable pour une utilisation large | |
| GPT-4o | OpenAI | Excellent polyvalent, bon multimodal, largement compatible | Excellent équilibre performance, vitesse et coût | |
| OpenAI o3-mini | OpenAI | Bonnes performances et raisonnement pour le coût | Un modèle de raisonnement flexible et intelligent adapté à de nombreuses tâches | |
| Rentable/Rapide | Claude 3.5 Haiku | Anthropic | Extrêmement rapide et peu coûteux, adapté aux tâches plus simples | Idéal pour les besoins à haut volume et faible latence comme la recherche, les résumés basiques |
| Gemini 2.0 Flash | Très rapide et rentable, bonnes capacités générales | Idéal pour les résumés, la recherche, les tâches d’assistance | ||
| GPT-4o mini | OpenAI | Version rapide et abordable de GPT-4o, idéale pour de nombreuses tâches | Bon équilibre coût/performance pour les fonctionnalités plus simples | |
| Llama 3.3 (par ex., 70B) | Meta | Modèle open source performant, souvent une option polyvalente rentable | Les performances varient selon le fournisseur/l’hébergement, nécessite de vérifier la compatibilité | |
| Capable de Vision | Claude 3.7 Sonnet | Anthropic | Fortes capacités de vision (les deux modes) | Requis pour le triage IA/détection NSFW |
| Gemini 2.5 Pro / 2.0 Flash | Fortes capacités de vision | Requis pour le triage IA/détection NSFW | ||
| GPT-4o / GPT-4o mini | OpenAI | Texte et vision intégrés | Requis pour le triage IA/détection NSFW | |
| Llama 3.2 | Meta | Capacités de vision open source | Nécessite de vérifier la compatibilité/l’hébergement/la prise en charge du fournisseur | |
| LLM hébergé par Discourse | Discourse | Modèle de vision préconfiguré pour les sites hébergés | Vérifiez les paramètres spécifiques des fonctionnalités (par ex., détection NSFW) | |
| Qwen-VL / autres | Divers | Vérifiez le plugin Discourse AI pour les modèles de vision spécifiques pris en charge | La configuration peut varier |
Recommandations générales (simplifiées) :
- Bot IA (Questions/Réponses complexes, Persona) : Modèles de performance/raisonnement de pointe (Claude 3.7 Sonnet - Thinking, R1, Gemini 2.5 Pro, o1-pro) ou modèles équilibrés performants (GPT-4o, Claude 3.7 Sonnet - Regular, o3-mini).
- Recherche IA : Modèles rentables/rapides (Haiku 3.5, Gemini 2.0 Flash, GPT-4o mini, Llama 3.3) ou modèles équilibrés pour une meilleure compréhension (GPT-4o, DeepSeek-V3).
- Assistant IA (Suggestions de titres, relecture) : Modèles rentables/rapides ou modèles équilibrés. La vitesse est souvent préférée. Claude 3.7 Sonnet (Regular) ou GPT-4o mini sont de bons candidats. Llama 3.3 peut également bien fonctionner ici.
- Résumé : Modèles équilibrés (Claude 3.7 Sonnet - Regular, GPT-4o, o3-mini, DeepSeek-V3) ou modèles rentables (Gemini 2.0 Flash, Llama 3.3). Les fenêtres de contexte plus longues (Gemini 2.5 Pro, Sonnet 3.7) sont bénéfiques pour les longs sujets si le budget le permet.
- Détection de spam / Triage IA (Texte) : Les modèles rentables/rapides sont généralement suffisants et économiques (Haiku 3.5, Gemini 2.0 Flash, GPT-4o mini, Llama 3.3).
- Triage IA (Détection d’images NSFW) : Nécessite un modèle capable de vision (GPT-4o/mini, Sonnet 3.7, Gemini 2.5 Pro/2.0 Flash, Llama 3.2, modèles spécifiques hébergés/pris en charge par Discourse).
N’oubliez pas de configurer le(s) LLM sélectionné(s) dans les paramètres d’administration de votre Discourse sous les fonctionnalités IA pertinentes.