Ce guide explique comment configurer les clés API pour OpenRouter afin d’activer les fonctionnalités Discourse AI qui nécessitent des clés LLM tierces.
Niveau d’utilisateur requis : Administrateur
Dans ce guide, nous allons configurer OpenRouter, un service qui fournit l’accès à de multiples grands modèles de langage (LLM) via une API unifiée.
Note : Vous aurez besoin d’un forfait et d’une clé API configurée auprès d’OpenRouter
Obtenir les clés API
- Visitez OpenRouter
- Inscrivez-vous pour un compte
- Accédez à votre tableau de bord pour trouver votre clé API
Quels modèles OpenRouter prend-il en charge dans Discourse AI ?
Discourse AI prend actuellement en charge tous les modèles sur OpenRouter. Les modèles suivants sont disponibles en tant que modèles prédéfinis en un clic :
- DeepSeek V3.2 (jusqu’à 163k tokens)
- Moonshot Kimi K2.5 (jusqu’à 262k tokens)
- xAI Grok 4 Fast (jusqu’à 131k tokens)
- MiniMax M2.5 (jusqu’à 196k tokens)
- Z-AI GLM-5 (jusqu’à 204k tokens)
- Arcee Trinity Large - Free (jusqu’à 128k tokens)
Tout autre modèle disponible sur OpenRouter peut être configuré manuellement.
Utilisation des clés API pour Discourse AI
- Allez dans
Admin→Plugins→AI→ ongletLLMs - Vous verrez les modèles OpenRouter listés comme modèles prédéfinis. Cliquez sur le bouton Set up à côté du modèle que vous souhaitez configurer. Cela pré-remplira le fournisseur, l’ID du modèle, le point de terminaison (endpoint) et le tokenizer pour vous — il vous suffit d’entrer votre clé API.
Configuration manuelle pour d’autres modèles
Pour utiliser un modèle OpenRouter qui n’est pas listé comme préréglage :
- Cliquez sur le bouton Set up sur « Configuration manuelle »
- Configurez les paramètres suivants :
- Provider : Sélectionnez « OpenRouter »
- Model ID : Entrez l’ID du modèle (par exemple, “deepseek/deepseek-v3.2”)
- API Key : Votre clé API OpenRouter
- Endpoint URL :
https://openrouter.ai/api/v1/chat/completions - Tokenizer : Utilisez l’OpenAiTokenizer
Options de configuration avancées
OpenRouter dans Discourse AI prend en charge des options de configuration supplémentaires :
-
Provider Order : Vous pouvez spécifier l’ordre des fournisseurs à essayer (liste séparée par des virgules)
Exemple : “Google, Amazon Bedrock” -
Provider Quantizations : Spécifiez les préférences de quantification (liste séparée par des virgules)
Exemple : “fp16,fp8” -
Disable Streaming : Activez cette option si vous souhaitez désactiver les réponses en streaming du modèle.
Faut-il désactiver le support des outils natifs ou non ?
Certains modèles sur OpenRouter ne prennent pas en charge les outils natifs, dans ces cas, vous devriez désactiver les outils natifs afin de pouvoir toujours obtenir des outils basés sur XML. De plus, les performances varient, vous devriez donc tester si les outils XML ou natifs donnent de meilleurs résultats pour un modèle.
- Activez « Disable native tools » pour utiliser l’implémentation d’outils basée sur XML
- Laissez-le désactivé pour utiliser l’implémentation d’outils native