Configuration des modèles de langage OpenRouter

:bookmark: Ce guide explique comment configurer les clés API pour OpenRouter afin d’activer les fonctionnalités Discourse AI qui nécessitent des clés LLM tierces.

:person_raising_hand: Niveau d’utilisateur requis : Administrateur

Dans ce guide, nous allons configurer OpenRouter, un service qui fournit l’accès à de multiples grands modèles de langage (LLM) via une API unifiée.

Note : Vous aurez besoin d’un forfait et d’une clé API configurée auprès d’OpenRouter

Obtenir les clés API

  1. Visitez OpenRouter
  2. Inscrivez-vous pour un compte
  3. Accédez à votre tableau de bord pour trouver votre clé API

Quels modèles OpenRouter prend-il en charge dans Discourse AI ?

Discourse AI prend actuellement en charge tous les modèles sur OpenRouter. Les modèles suivants sont disponibles en tant que modèles prédéfinis en un clic :

  • DeepSeek V3.2 (jusqu’à 163k tokens)
  • Moonshot Kimi K2.5 (jusqu’à 262k tokens)
  • xAI Grok 4 Fast (jusqu’à 131k tokens)
  • MiniMax M2.5 (jusqu’à 196k tokens)
  • Z-AI GLM-5 (jusqu’à 204k tokens)
  • Arcee Trinity Large - Free (jusqu’à 128k tokens)

Tout autre modèle disponible sur OpenRouter peut être configuré manuellement.

Utilisation des clés API pour Discourse AI

  1. Allez dans AdminPluginsAI → onglet LLMs
  2. Vous verrez les modèles OpenRouter listés comme modèles prédéfinis. Cliquez sur le bouton Set up à côté du modèle que vous souhaitez configurer. Cela pré-remplira le fournisseur, l’ID du modèle, le point de terminaison (endpoint) et le tokenizer pour vous — il vous suffit d’entrer votre clé API.

Configuration manuelle pour d’autres modèles

Pour utiliser un modèle OpenRouter qui n’est pas listé comme préréglage :

  1. Cliquez sur le bouton Set up sur « Configuration manuelle »
  2. Configurez les paramètres suivants :
  • Provider : Sélectionnez « OpenRouter »
  • Model ID : Entrez l’ID du modèle (par exemple, “deepseek/deepseek-v3.2”)
  • API Key : Votre clé API OpenRouter
  • Endpoint URL : https://openrouter.ai/api/v1/chat/completions
  • Tokenizer : Utilisez l’OpenAiTokenizer

Options de configuration avancées

OpenRouter dans Discourse AI prend en charge des options de configuration supplémentaires :

  1. Provider Order : Vous pouvez spécifier l’ordre des fournisseurs à essayer (liste séparée par des virgules)
    Exemple : “Google, Amazon Bedrock”

  2. Provider Quantizations : Spécifiez les préférences de quantification (liste séparée par des virgules)
    Exemple : “fp16,fp8”

  3. Disable Streaming : Activez cette option si vous souhaitez désactiver les réponses en streaming du modèle.

Faut-il désactiver le support des outils natifs ou non ?

Certains modèles sur OpenRouter ne prennent pas en charge les outils natifs, dans ces cas, vous devriez désactiver les outils natifs afin de pouvoir toujours obtenir des outils basés sur XML. De plus, les performances varient, vous devriez donc tester si les outils XML ou natifs donnent de meilleurs résultats pour un modèle.

  • Activez « Disable native tools » pour utiliser l’implémentation d’outils basée sur XML
  • Laissez-le désactivé pour utiliser l’implémentation d’outils native
7 « J'aime »