Créer un plugin personnalisé pour LLM ou une autre option ?

Salut à tous,

nous hébergeons un forum Discourse au sein de notre réseau d’entreprise. Nous ne pouvons pas intégrer ChatGPT ou tout autre LLM public, mais il y a une grande initiative dans notre entreprise qui crée un service interne pour les modules d’IA (y compris GPT).
Ils ont leur propre API, cependant, et je voulais demander s’il serait possible d’écrire un plugin LLM personnalisé ?
Ou quelles autres options avons-nous ?

Les appels à cette API interne doivent être authentifiés, et l’API elle-même a besoin d’une autre clé API, il y a donc plusieurs informations obligatoires qui doivent être fournies à l’avance.

Toute aide serait grandement appréciée.

Merci et salutations,

WS

1 « J'aime »

Vous pouvez utiliser des modèles et/ou des points de terminaison personnalisés avec le plugin actuel.

Ensuite, si vous avez besoin d’ajouter des fonctionnalités supplémentaires, vous pouvez également créer une copie (fork) et maintenir votre propre plugin.

3 « J'aime »

Oui, mais avez-vous installé le plugin IA pour voir ce qu’il prend déjà en charge ?

2 « J'aime »

Tant que vos points de terminaison internes utilisent des interfaces API de type OpenAI, vous pouvez utiliser Discourse AI tel quel et simplement définir un LLM personnalisé.

2 « J'aime »

Je vais l’essayer. Une de mes principales préoccupations est cependant la question de l’authentification.
Il ne s’agit pas seulement de la clé API, mais aussi de l’OIDC (politique d’entreprise :slight_smile: )…
Cela signifie que je devrais d’une manière ou d’une autre personnaliser la façon dont le tableau effectue des requêtes à cette API. Est-ce possible sans faire un fork et le faire moi-même ?
Merci à tous, vous êtes géniaux à chaque fois :+1: