Temos clientes fazendo milhares de chamadas de IA diariamente através de proxies compatíveis com a OpenAI, então sabemos que funciona. A principal questão é o quão compatíveis eles realmente são quando dizem “compatível com a OpenAI”.
vLLM, Google, Ollama, LMStudio fornecem APIs compatíveis com a OpenAI que testamos e usamos diariamente.
Se um provedor específico estiver falhando, geralmente é fácil descobrir o motivo através dos logs na página /logs. Você pode compartilhar o erro de lá?