Configurer les clés API pour Azure OpenAI

:bookmark: Ce guide explique comment configurer les clés d’API pour Azure OpenAI afin d’activer les fonctionnalités d’IA de Discourse qui nécessitent des clés LLM tierces.

:person_raising_hand: Niveau d’utilisateur requis : Administrateur

Dans cet exemple, nous utilisons Azure OpenAI pour générer les clés.

:note: Vous aurez probablement besoin d’un plan payant et devrez payer par utilisation. Voir ici pour les détails et les prix à jour.

Les plateformes changeront toujours, ce guide pourrait donc ne pas refléter le processus à 100 %.

:information_source: Pour utiliser certains modules d’IA, les utilisateurs doivent disposer d’une clé d’API d’un fournisseur tiers tel qu’OpenAI (ChatGPT), Anthropic (Claude), Stability AI (Stable Diffusion), etc.

Veuillez vérifier chaque module d’IA pour voir quels fournisseurs tiers peuvent être utilisés pour celui-ci.

Obtenir les clés d’API

  1. Suivez la documentation ici pour obtenir les clés d’API nécessaires en fonction des modèles OpenAI que vous choisissez et des modules/fonctionnalités d’IA de Discourse que vous utilisez.
  2. Une fois les clés obtenues, stockez-les dans un endroit sûr et sécurisé, puis copiez-les.

Utilisation des clés d’API pour l’IA de Discourse

  1. Accédez aux paramètres AdminPluginsAI → onglet LLMs.
  2. Cliquez sur le bouton + Nouveau Modèle.
  3. Sélectionnez le modèle approprié dans la liste.
  4. Sélectionnez Azure dans la liste Service hébergeant le modèle.
  5. Entrez l’URL du service hébergeant le modèle.

Exemple d’URL : https://{RESOURCE_NAME}.openai.azure.com/openai/deployments/{DEPLOYMENT_NAME}/chat/completions?api-version=2024-02-15-preview

  • RESOURCE_NAME est le nom de votre ressource Azure OpenAI
  • DEPLOYMENT_NAME est le nom de votre déploiement de modèle GPT-4 Turbo avec Vision
  1. Collez la clé d’API dans le champ Clé d'API du service hébergeant le modèle.
  2. Enregistrez le LLM.

Paramètres supplémentaires

Les paramètres dépendront du modèle OpenAI que vous choisissez et des modules/fonctionnalités d’IA de Discourse que vous utilisez. Les paramètres suivants se trouvent dans les paramètres AdminPluginsAI → onglet Paramètres :

  • ai openai API key: Clé d’API pour l’API OpenAI.
  • ai openai embeddings url: URL personnalisée utilisée pour l’API d’intégration OpenAI (utilisez l’URL spécifique pour Azure).
  • ai openai dall e 3 url: URL personnalisée utilisée pour la génération d’images DALL-E 3.
2 « J'aime »

Bonjour,

Je rencontre un problème avec le point de terminaison OpenAI Azure. Il semble ne pas fonctionner comme prévu pour l’URL suivante :

https://***.openai.azure.com/openai/deployments/DEPLOYMENT_NAME/chat/completions?api-version=2023-07-01-preview

DEPLOYMENT_NAME est défini sur gpt-4-32k.

Pourriez-vous m’aider à résoudre ce problème ? Toute aide ou suggestion serait grandement appréciée.

De plus, j’ai quelques questions concernant les plugins Discourse :

  1. Comment forker un plugin Discourse : Pourriez-vous fournir des instructions détaillées ou un guide sur la manière de forker un plugin Discourse existant ?
  2. Tester le plugin forké : Une fois que j’ai forké un plugin, quelles sont les étapes pour tester cette version forkée sur ma propre instance Discourse ?
  3. Télécharger et activer le plugin : Après les tests, comment puis-je télécharger et activer ce plugin forké sur mon instance Discourse ?

Votre aide pour ces questions serait extrêmement utile. Merci pour votre temps et votre soutien.

Cordialement,

2 « J'aime »

5 publications ont été divisées dans un nouveau sujet : Problèmes de configuration de l’IA sur Bitnami Discourse