nous hébergeons un forum Discourse au sein de notre réseau d’entreprise. Nous ne pouvons pas intégrer ChatGPT ou tout autre LLM public, mais il y a une grande initiative dans notre entreprise qui crée un service interne pour les modules d’IA (y compris GPT).
Ils ont leur propre API, cependant, et je voulais demander s’il serait possible d’écrire un plugin LLM personnalisé ?
Ou quelles autres options avons-nous ?
Les appels à cette API interne doivent être authentifiés, et l’API elle-même a besoin d’une autre clé API, il y a donc plusieurs informations obligatoires qui doivent être fournies à l’avance.
Vous pouvez utiliser des modèles et/ou des points de terminaison personnalisés avec le plugin actuel.
Ensuite, si vous avez besoin d’ajouter des fonctionnalités supplémentaires, vous pouvez également créer une copie (fork) et maintenir votre propre plugin.
Tant que vos points de terminaison internes utilisent des interfaces API de type OpenAI, vous pouvez utiliser Discourse AI tel quel et simplement définir un LLM personnalisé.
Je vais l’essayer. Une de mes principales préoccupations est cependant la question de l’authentification.
Il ne s’agit pas seulement de la clé API, mais aussi de l’OIDC (politique d’entreprise )…
Cela signifie que je devrais d’une manière ou d’une autre personnaliser la façon dont le tableau effectue des requêtes à cette API. Est-ce possible sans faire un fork et le faire moi-même ?
Merci à tous, vous êtes géniaux à chaque fois