Abbiamo clienti che effettuano migliaia di chiamate AI giornalmente tramite proxy compatibili con OpenAI, quindi sappiamo che funziona. Il problema principale è quanto siano realmente compatibili quando dicono “compatibile con OpenAI”.
vLLM, Google, Ollama, LMStudio forniscono tutti API compatibili con OpenAI che testiamo e utilizziamo quotidianamente.
Se uno specifico provider non funziona, di solito è facile scoprire il motivo tramite i log nella pagina /logs. Puoi condividere l’errore da lì?