OpenRouter Sprachmodelle konfigurieren

:bookmark: Diese Anleitung erklärt, wie API-Schlüssel für OpenRouter konfiguriert werden, um Discourse AI-Funktionen zu ermöglichen, die 3rd-Party LLM-Schlüssel erfordern.

:person_raising_hand: Erforderliches Benutzerniveau: Administrator

In dieser Anleitung konfigurieren wir OpenRouter – einen Dienst, der Zugriff auf mehrere große Sprachmodelle über eine einheitliche API bietet.

Hinweis: Sie benötigen einen Plan und einen konfigurierten API-Schlüssel von OpenRouter

API-Schlüssel abrufen

  1. Besuchen Sie OpenRouter
  2. Registrieren Sie ein Konto
  3. Navigieren Sie zu Ihrem Dashboard, um Ihren API-Schlüssel zu finden

Welche Modelle unterstützt OpenRouter in Discourse AI?

Discourse AI unterstützt derzeit alle Modelle auf OpenRouter. Die folgenden Modelle sind als Ein-Klick-Voreinstellungen verfügbar:

  • DeepSeek V3.2 (bis zu 163k Tokens)
  • Moonshot Kimi K2.5 (bis zu 262k Tokens)
  • xAI Grok 4 Fast (bis zu 131k Tokens)
  • MiniMax M2.5 (bis zu 196k Tokens)
  • Z-AI GLM-5 (bis zu 204k Tokens)
  • Arcee Trinity Large - Free (bis zu 128k Tokens)

Jedes andere auf OpenRouter verfügbare Modell kann manuell konfiguriert werden.

Verwendung von API-Schlüsseln für Discourse AI

  1. Gehen Sie zu AdminPluginsAI → Reiter LLMs
  2. Sie sehen die OpenRouter-Modelle als voreingestellte Vorlagen aufgelistet. Klicken Sie auf die Schaltfläche Einrichten neben dem Modell, das Sie konfigurieren möchten. Dies füllt den Anbieter, die Modell-ID, den Endpunkt und den Tokenizer für Sie aus – geben Sie einfach Ihren API-Schlüssel ein.

Manuelle Konfiguration für andere Modelle

Um ein OpenRouter-Modell zu verwenden, das nicht als Voreinstellung aufgeführt ist:

  1. Klicken Sie auf die Schaltfläche Einrichten bei „Manuelle Konfiguration“
  2. Konfigurieren Sie die folgenden Einstellungen:
  • Anbieter: Wählen Sie „OpenRouter“
  • Modell-ID: Geben Sie die Modell-ID ein (z. B. „deepseek/deepseek-v3.2“)
  • API-Schlüssel: Ihr OpenRouter API-Schlüssel
  • Endpunkt-URL: https://openrouter.ai/api/v1/chat/completions
  • Tokenizer: Verwenden Sie den OpenAiTokenizer

Erweiterte Konfigurationsoptionen

OpenRouter in Discourse AI unterstützt zusätzliche Konfigurationsoptionen:

  1. Anbieterreihenfolge: Sie können die Reihenfolge der zu versuchenden Anbieter angeben (kommaseparierte Liste)
    Beispiel: „Google, Amazon Bedrock“

  2. Anbieter-Quantisierungen: Geben Sie die Quantisierungspräferenzen an (kommaseparierte Liste)
    Beispiel: „fp16,fp8“

  3. Streaming deaktivieren: Aktivieren Sie diese Option, wenn Sie das Streaming von Antworten vom Modell deaktivieren möchten.

Soll die native Tool-Unterstützung deaktiviert werden oder nicht?

Einige Modelle auf OpenRouter unterstützen keine nativen Tools. In diesen Fällen sollten Sie native Tools deaktivieren, damit Sie immer noch XML-basierte Tools erhalten können. Darüber hinaus variiert die Leistung, sodass Sie testen sollten, ob XML- oder native Tools bessere Ergebnisse für ein Modell liefern.

  • Aktivieren Sie „Native Tools deaktivieren“, um die XML-basierte Tool-Implementierung zu verwenden
  • Deaktivieren Sie es, um die native Tool-Implementierung zu verwenden
7 „Gefällt mir“