Configurazione dei modelli linguistici OpenRouter

:bookmark: Questa guida spiega come configurare le chiavi API per OpenRouter per abilitare le funzionalitĂ  di Discourse AI che richiedono chiavi LLM di terze parti.

:person_raising_hand: Livello utente richiesto: Amministratore

In questa guida, configureremo OpenRouter, un servizio che fornisce accesso a più modelli linguistici di grandi dimensioni tramite un’API unificata.

Nota: SarĂ  necessario un piano e una chiave API configurata da OpenRouter

Ottenere le chiavi API

  1. Visita OpenRouter
  2. Registra un account
  3. Vai alla tua dashboard per trovare la tua chiave API

Quali modelli supporta OpenRouter in Discourse AI?

Discourse AI supporta attualmente tutti i modelli su OpenRouter. I seguenti modelli sono disponibili come preset con un clic:

  • DeepSeek V3.2 (fino a 163k token)
  • Moonshot Kimi K2.5 (fino a 262k token)
  • xAI Grok 4 Fast (fino a 131k token)
  • MiniMax M2.5 (fino a 196k token)
  • Z-AI GLM-5 (fino a 204k token)
  • Arcee Trinity Large - Gratuito (fino a 128k token)

Qualsiasi altro modello disponibile su OpenRouter può essere configurato manualmente.

Utilizzo delle chiavi API per Discourse AI

  1. Vai su Admin → Plugins → AI → scheda LLMs
  2. Vedrai i modelli OpenRouter elencati come modelli predefiniti. Fai clic sul pulsante Set up accanto al modello che desideri configurare. Questo precompilerà il provider, l’ID del modello, l’endpoint e il tokenizer per te: inserisci semplicemente la tua chiave API.

Configurazione manuale per altri modelli

Per utilizzare un modello OpenRouter che non è elencato come preset:

  1. Fai clic sul pulsante Set up su “Configurazione manuale”
  2. Configura le seguenti impostazioni:
  • Provider: Seleziona “OpenRouter”
  • Model ID: Inserisci l’ID del modello (es. “deepseek/deepseek-v3.2”)
  • API Key: La tua chiave API OpenRouter
  • Endpoint URL: https://openrouter.ai/api/v1/chat/completions
  • Tokenizer: Usa l’OpenAiTokenizer

Opzioni di configurazione avanzate

OpenRouter in Discourse AI supporta opzioni di configurazione aggiuntive:

  1. Provider Order: Puoi specificare l’ordine dei provider da provare (elenco separato da virgole)
    Esempio: “Google, Amazon Bedrock”

  2. Provider Quantizations: Specifica le preferenze di quantizzazione (elenco separato da virgole)
    Esempio: “fp16,fp8”

  3. Disable Streaming: Abilita questa opzione se desideri disabilitare le risposte in streaming dal modello.

Dovrei disabilitare il supporto per gli strumenti nativi o no?

Alcuni modelli su OpenRouter non supportano gli strumenti nativi; in questi casi dovresti disabilitare gli strumenti nativi in modo da poter comunque ottenere strumenti basati su XML. Inoltre, le prestazioni variano, quindi dovresti testare se gli strumenti XML o quelli nativi ti danno risultati migliori per un modello.

  • Abilita “Disable native tools” per utilizzare l’implementazione dello strumento basata su XML
  • Lascialo disabilitato per utilizzare l’implementazione dello strumento nativo
7 Mi Piace