API-Schlüssel für Azure OpenAI konfigurieren

:bookmark: Dieser Leitfaden erklärt, wie API-Schlüssel für Azure OpenAI konfiguriert werden, um Discourse AI-Funktionen zu aktivieren, die 3rd-Party-LLM-Schlüssel erfordern.

:person_raising_hand: Erforderliches Benutzerniveau: Administrator

In diesem Beispiel verwenden wir Azure OpenAI, um die Schlüssel zu generieren.

Hinweis: Sie benötigen wahrscheinlich einen kostenpflichtigen Plan und müssen pro Nutzung bezahlen. Aktuelle Details und Preise finden Sie hier.

Plattformen ändern sich ständig, daher spiegelt dieser Leitfaden möglicherweise nicht zu 100 % den Prozess wider.

:information_source: Um bestimmte KI-Module nutzen zu können, müssen Benutzer einen API-Schlüssel von einem Drittanbieter wie OpenAI (ChatGPT), Anthropic (Claude), Stability AI (Stable Diffusion) usw. haben.

Bitte überprüfen Sie jedes KI-Modul, um zu sehen, welche Drittanbieter dafür verwendet werden können.

API-Schlüssel erhalten

  1. Gehen Sie die Dokumentation hier, um die erforderlichen API-Schlüssel zu erhalten, abhängig von den von Ihnen gewählten OpenAI-Modellen und den von Ihnen verwendeten Discourse AI-Modulen/Funktionen.
  2. Sobald die Schlüssel erhalten wurden, speichern Sie sie an einem sicheren Ort und kopieren Sie sie.

API-Schlüssel für Discourse AI verwenden

  1. Gehen Sie zu den Admin-Einstellungen → PluginsAILLMs-Tab.
  2. Klicken Sie auf die Schaltfläche + New Model (+ Neues Modell).
  3. Wählen Sie das entsprechende Modell aus der Liste aus.
  4. Wählen Sie Azure aus der Liste Service hosting the model (Dienst, der das Modell hostet).
  5. Geben Sie die URL of the service hosting the model (URL des Dienstes, der das Modell hostet) ein.

Beispiel-URL: https://{RESOURCE_NAME}.openai.azure.com/openai/deployments/{DEPLOYMENT_NAME}/chat/completions?api-version=2024-02-15-preview, wobei

  • RESOURCE_NAME der Name Ihrer Azure OpenAI-Ressource ist.
  • DEPLOYMENT_NAME der Name Ihres GPT-4 Turbo mit Vision-Modell-Deployments ist.
  1. Fügen Sie den API-Schlüssel in das Feld API Key of the service hosting the model (API-Schlüssel des Dienstes, der das Modell hostet) ein.
  2. Speichern Sie das LLM.

Zusätzliche Einstellungen

Die Einstellungen hängen vom gewählten OpenAI-Modell und den von Ihnen verwendeten Discourse AI-Modulen/Funktionen ab. Die folgenden Einstellungen finden Sie in den Admin-Einstellungen → PluginsAISettings (Einstellungen)-Tab:

  • ai openai API key: API-Schlüssel für die OpenAI-API.
  • ai openai embeddings url: Benutzerdefinierte URL für die OpenAI-Embeddings-API (verwenden Sie die spezifische URL für Azure).
  • ai openai dall e 3 url: Benutzerdefinierte URL für die DALL-E 3-Bilderzeugung.
2 „Gefällt mir“

Hallo,

Ich stoße auf ein Problem mit dem OpenAI Azure-Endpunkt. Es scheint nicht wie erwartet für die folgende URL zu funktionieren:

https://***.openai.azure.com/openai/deployments/DEPLOYMENT_NAME/chat/completions?api-version=2023-07-01-preview

Wobei DEPLOYMENT_NAME auf gpt-4-32k gesetzt ist.

Könnten Sie bitte bei der Lösung dieses Problems helfen? Jede Anleitung oder jeder Vorschlag wäre sehr willkommen.

Zusätzlich habe ich einige Fragen zu Discourse-Plugins:

  1. Wie man ein Discourse-Plugin forkt: Könnten Sie detaillierte Anweisungen oder eine Anleitung geben, wie man ein bestehendes Discourse-Plugin forkt?
  2. Testen des geforkten Plugins: Sobald ich ein Plugin geforkt habe, welche Schritte sind erforderlich, um diese geforkte Version auf meiner eigenen Discourse-Instanz zu testen?
  3. Hochladen und Aktivieren des Plugins: Wie kann ich nach dem Testen dieses geforkte Plugin auf meiner Discourse-Instanz hochladen und aktivieren?

Ihre Hilfe bei diesen Fragen wäre äußerst hilfreich. Vielen Dank für Ihre Zeit und Unterstützung.

Mit freundlichen Grüßen,

2 „Gefällt mir“

5 Beiträge wurden in ein neues Thema aufgeteilt: Probleme bei der Konfiguration von KI auf Bitnami Discourse