Diese Anleitung erklärt, wie API-Schlüssel für OpenRouter konfiguriert werden, um Discourse AI-Funktionen zu ermöglichen, die 3rd-Party LLM-Schlüssel erfordern.
Erforderliches Benutzerniveau: Administrator
In dieser Anleitung konfigurieren wir OpenRouter – einen Dienst, der Zugriff auf mehrere große Sprachmodelle über eine einheitliche API bietet.
Hinweis: Sie benötigen einen Plan und einen konfigurierten API-Schlüssel von OpenRouter
API-Schlüssel abrufen
- Besuchen Sie OpenRouter
- Registrieren Sie ein Konto
- Navigieren Sie zu Ihrem Dashboard, um Ihren API-Schlüssel zu finden
Welche Modelle unterstützt OpenRouter in Discourse AI?
Discourse AI unterstützt derzeit alle Modelle auf OpenRouter. Die folgenden Modelle sind als Ein-Klick-Voreinstellungen verfügbar:
- DeepSeek V3.2 (bis zu 163k Tokens)
- Moonshot Kimi K2.5 (bis zu 262k Tokens)
- xAI Grok 4 Fast (bis zu 131k Tokens)
- MiniMax M2.5 (bis zu 196k Tokens)
- Z-AI GLM-5 (bis zu 204k Tokens)
- Arcee Trinity Large - Free (bis zu 128k Tokens)
Jedes andere auf OpenRouter verfügbare Modell kann manuell konfiguriert werden.
Verwendung von API-Schlüsseln für Discourse AI
- Gehen Sie zu
Admin→Plugins→AI→ ReiterLLMs - Sie sehen die OpenRouter-Modelle als voreingestellte Vorlagen aufgelistet. Klicken Sie auf die Schaltfläche Einrichten neben dem Modell, das Sie konfigurieren möchten. Dies füllt den Anbieter, die Modell-ID, den Endpunkt und den Tokenizer für Sie aus – geben Sie einfach Ihren API-Schlüssel ein.
Manuelle Konfiguration für andere Modelle
Um ein OpenRouter-Modell zu verwenden, das nicht als Voreinstellung aufgeführt ist:
- Klicken Sie auf die Schaltfläche Einrichten bei „Manuelle Konfiguration“
- Konfigurieren Sie die folgenden Einstellungen:
- Anbieter: Wählen Sie „OpenRouter“
- Modell-ID: Geben Sie die Modell-ID ein (z. B. „deepseek/deepseek-v3.2“)
- API-Schlüssel: Ihr OpenRouter API-Schlüssel
- Endpunkt-URL:
https://openrouter.ai/api/v1/chat/completions - Tokenizer: Verwenden Sie den OpenAiTokenizer
Erweiterte Konfigurationsoptionen
OpenRouter in Discourse AI unterstützt zusätzliche Konfigurationsoptionen:
-
Anbieterreihenfolge: Sie können die Reihenfolge der zu versuchenden Anbieter angeben (kommaseparierte Liste)
Beispiel: „Google, Amazon Bedrock“ -
Anbieter-Quantisierungen: Geben Sie die Quantisierungspräferenzen an (kommaseparierte Liste)
Beispiel: „fp16,fp8“ -
Streaming deaktivieren: Aktivieren Sie diese Option, wenn Sie das Streaming von Antworten vom Modell deaktivieren möchten.
Soll die native Tool-Unterstützung deaktiviert werden oder nicht?
Einige Modelle auf OpenRouter unterstützen keine nativen Tools. In diesen Fällen sollten Sie native Tools deaktivieren, damit Sie immer noch XML-basierte Tools erhalten können. Darüber hinaus variiert die Leistung, sodass Sie testen sollten, ob XML- oder native Tools bessere Ergebnisse für ein Modell liefern.
- Aktivieren Sie „Native Tools deaktivieren“, um die XML-basierte Tool-Implementierung zu verwenden
- Deaktivieren Sie es, um die native Tool-Implementierung zu verwenden