Nous avons des clients qui effectuent des milliers d’appels d’IA quotidiennement via des proxys compatibles avec OpenAI, nous savons donc que cela fonctionne. Le principal problème est de savoir à quel point ils sont réellement compatibles lorsqu’ils disent “compatible avec OpenAI”.
vLLM, Google, Ollama, LMStudio fournissent tous des API compatibles avec OpenAI que nous testons et utilisons quotidiennement.
Si un fournisseur spécifique échoue, il est généralement facile de trouver la raison via les journaux sur la page /logs. Pouvez-vous partager l’erreur qui s’y trouve ?