Diese Anleitung erklärt, wie API-Schlüssel für Azure OpenAI konfiguriert werden, um Discourse AI-Funktionen zu ermöglichen, die externe LLM-Schlüssel erfordern.
Erforderliches Benutzerniveau: Administrator
In diesem Beispiel verwenden wir Azure OpenAI zur Generierung der Schlüssel.
Hinweis: Sie benötigen wahrscheinlich einen kostenpflichtigen Plan und müssen pro Nutzung bezahlen. Die aktuellen Details und Preise finden Sie hier.
Plattformen ändern sich ständig, daher spiegelt diese Anleitung möglicherweise nicht zu 100 % den Prozess wider.
Um bestimmte KI-Module nutzen zu können, müssen Benutzer einen API-Schlüssel von einem Drittanbieter wie OpenAI (ChatGPT), Anthropic (Claude), Stability AI (Stable Diffusion) usw. besitzen.
Bitte überprüfen Sie jedes KI-Modul, um festzustellen, welche Drittanbieter dafür verwendet werden können.
API-Schlüssel abrufen
- Lesen Sie die Dokumentation hier, um die erforderlichen API-Schlüssel abzurufen, abhängig von den ausgewählten OpenAI-Modellen und den verwendeten Discourse AI-Modulen/Funktionen.
- Sobald die Schlüssel abgerufen wurden, speichern Sie sie an einem sicheren Ort und kopieren Sie sie.
Anmeldeinformationen hinzufügen
API-Schlüssel werden zentral über die Seite Credentials (Anmeldeinformationen) verwaltet. Sie müssen eine Anmeldeinformation erstellen, bevor Sie Ihr LLM konfigurieren können.
- Gehen Sie zu
Admin→Plugins→AI→Credentials- Klicken Sie auf New credential (Neue Anmeldeinformationen)
- Geben Sie einen beschreibenden Namen ein (z. B. „Azure OpenAI API Key“)
- Fügen Sie Ihren Azure API-Schlüssel in das Feld
Value(Wert) ein- Speichern Sie die Anmeldeinformationen
Verwendung von API-Schlüsseln für Discourse AI
- Gehen Sie zu
Admin→Plugins→AI→LLMs- Klicken Sie auf die Schaltfläche + New Model (+ Neues Modell).
- Wählen Sie das entsprechende Modell aus der Liste aus.
- Wählen Sie
Azureaus der ListeProvider(Anbieter)- Geben Sie die
URL des Dienstes, der das Modell hostet, einBeispiel-URL:
https://{RESOURCE_NAME}.openai.azure.com/openai/deployments/{DEPLOYMENT_NAME}/chat/completions?api-version=2024-02-15-previewwobei
- RESOURCE_NAME der Name Ihrer Azure OpenAI-Ressource ist
- DEPLOYMENT_NAME der Name Ihres Azure OpenAI-Modell-Deployments ist
- Wählen Sie die zuvor erstellten Anmeldeinformationen aus dem Dropdown-Menü für Anmeldeinformationen
- Speichern Sie das LLM
2 „Gefällt mir“
Hallo,
Ich stoße auf ein Problem mit dem OpenAI Azure-Endpunkt. Es scheint nicht wie erwartet für die folgende URL zu funktionieren:
https://***.openai.azure.com/openai/deployments/DEPLOYMENT_NAME/chat/completions?api-version=2023-07-01-preview
Wobei DEPLOYMENT_NAME auf gpt-4-32k gesetzt ist.
Könnten Sie bitte bei der Lösung dieses Problems helfen? Jede Anleitung oder jeder Vorschlag wäre sehr willkommen.
Zusätzlich habe ich einige Fragen zu Discourse-Plugins:
- Wie man ein Discourse-Plugin forkt: Könnten Sie detaillierte Anweisungen oder eine Anleitung geben, wie man ein bestehendes Discourse-Plugin forkt?
- Testen des geforkten Plugins: Sobald ich ein Plugin geforkt habe, welche Schritte sind erforderlich, um diese geforkte Version auf meiner eigenen Discourse-Instanz zu testen?
- Hochladen und Aktivieren des Plugins: Wie kann ich nach dem Testen dieses geforkte Plugin auf meiner Discourse-Instanz hochladen und aktivieren?
Ihre Hilfe bei diesen Fragen wäre äußerst hilfreich. Vielen Dank für Ihre Zeit und Unterstützung.
Mit freundlichen Grüßen,
2 „Gefällt mir“
5 Beiträge wurden in ein neues Thema aufgeteilt: Probleme bei der Konfiguration von KI auf Bitnami Discourse

