Questa guida spiega come configurare le chiavi API per OpenRouter per abilitare le funzionalitĂ di Discourse AI che richiedono chiavi LLM di terze parti.
Livello utente richiesto: Amministratore
In questa guida, configureremo OpenRouter, un servizio che fornisce accesso a più modelli linguistici di grandi dimensioni tramite un’API unificata.
Nota: SarĂ necessario un piano e una chiave API configurata da OpenRouter
Ottenere le chiavi API
- Visita OpenRouter
- Registra un account
- Vai alla tua dashboard per trovare la tua chiave API
Quali modelli supporta OpenRouter in Discourse AI?
Discourse AI supporta attualmente tutti i modelli su OpenRouter. I seguenti modelli sono disponibili come preset con un clic:
- DeepSeek V3.2 (fino a 163k token)
- Moonshot Kimi K2.5 (fino a 262k token)
- xAI Grok 4 Fast (fino a 131k token)
- MiniMax M2.5 (fino a 196k token)
- Z-AI GLM-5 (fino a 204k token)
- Arcee Trinity Large - Gratuito (fino a 128k token)
Qualsiasi altro modello disponibile su OpenRouter può essere configurato manualmente.
Utilizzo delle chiavi API per Discourse AI
- Vai su
Admin→Plugins→AI→ schedaLLMs - Vedrai i modelli OpenRouter elencati come modelli predefiniti. Fai clic sul pulsante Set up accanto al modello che desideri configurare. Questo precompilerà il provider, l’ID del modello, l’endpoint e il tokenizer per te: inserisci semplicemente la tua chiave API.
Configurazione manuale per altri modelli
Per utilizzare un modello OpenRouter che non è elencato come preset:
- Fai clic sul pulsante Set up su “Configurazione manuale”
- Configura le seguenti impostazioni:
- Provider: Seleziona “OpenRouter”
- Model ID: Inserisci l’ID del modello (es. “deepseek/deepseek-v3.2”)
- API Key: La tua chiave API OpenRouter
- Endpoint URL:
https://openrouter.ai/api/v1/chat/completions - Tokenizer: Usa l’OpenAiTokenizer
Opzioni di configurazione avanzate
OpenRouter in Discourse AI supporta opzioni di configurazione aggiuntive:
-
Provider Order: Puoi specificare l’ordine dei provider da provare (elenco separato da virgole)
Esempio: “Google, Amazon Bedrock” -
Provider Quantizations: Specifica le preferenze di quantizzazione (elenco separato da virgole)
Esempio: “fp16,fp8” -
Disable Streaming: Abilita questa opzione se desideri disabilitare le risposte in streaming dal modello.
Dovrei disabilitare il supporto per gli strumenti nativi o no?
Alcuni modelli su OpenRouter non supportano gli strumenti nativi; in questi casi dovresti disabilitare gli strumenti nativi in modo da poter comunque ottenere strumenti basati su XML. Inoltre, le prestazioni variano, quindi dovresti testare se gli strumenti XML o quelli nativi ti danno risultati migliori per un modello.
- Abilita “Disable native tools” per utilizzare l’implementazione dello strumento basata su XML
- Lascialo disabilitato per utilizzare l’implementazione dello strumento nativo