@Falco @sam existe-t-il des options si nous voulons utiliser notre propre fournisseur d’IA en dehors de ceux disponibles dans les paramètres ? par exemple, si nous hébergeons le nôtre, si nous utilisons un service comme mendable.ai, etc.
Nous prenons en charge les API vLLM et TGI pour l’inférence LLM, et toute API qui imite l’API OpenAI devrait fonctionner en définissant ai openai gpt4 url pour pointer vers celle-ci.
Il semble que ce ne soit pas tout à fait 1:1 pour OpenAI, mais c’est très proche :
En parcourant l’API, surtout que nous devons appeler newConversation et stocker l’état, il faudrait quelques jours de travail pour implémenter un dialecte/point de terminaison d’API pour Discourse AI.
Totalement réalisable d’après ce que je peux voir, mais c’est un travail personnalisé. Nous pouvons le faire si vous souhaitez sponsoriser.
Personnellement, je ne suis pas sûr que ces animaux personnalisés l’emporteront à long terme sur les modèles de pointe, malheureusement pour MENDABLE, ils pourraient être à une seule sortie de GPT-5 de devenir assez obsolètes.
Même des choses comme GPT-4 / Claude Opus aujourd’hui, lorsqu’elles sont affinées avec soin, pourraient probablement surpasser cela.
@Roman travaille sur la possibilité d’injecter du contexte externe supplémentaire via des fichiers dans une persona.
Nous pouvons déjà faire des choses assez étonnantes avec une persona personnalisée aujourd’hui, vous pourriez facilement adapter l’aide GitHub pour qu’elle soit spécifique à SailPoint, par exemple :