Come utilizzare gli endpoint di inferenza a pagamento di hugging face come LLM personalizzati di Discourse

Ho diversi modelli LLM open source in esecuzione sul servizio Hugging Face Inference Endpoint (essenzialmente AWS)…

Per tutti i modelli che ho testato (llama, phi, gemma, ecc)… sono in grado di connettermi dalla pagina delle impostazioni di Discourse LLM, ma l’inferenza non funziona. ecco l’errore:

“Tentativo di contattare il modello ha restituito questo errore: Impossibile deserializzare il corpo JSON nel tipo di destinazione: campo mancante inputs alla riga 1 colonna 163”

Cosa sto sbagliando!? Grazie mille…

Vista da Hugging Face:

Vista da Discourse:

È passato più di un anno dall’ultima volta che ho provato la loro API. È compatibile con OpenAI al giorno d’oggi? Se sì, puoi provare a impostare Provider su OpenAI e puntare al loro endpoint.

Ho provato quasi tutti i provider disponibili nella schermata di configurazione LLM di Discourse, incluso OpenAI.

O danno l’errore “Impossibile deserializzare il corpo JSON nel tipo di destinazione” o “Errore del server interno”.

Ho anche provato un modello OpenAI effettivo sul servizio endpoint HF (GPT2! :slight_smile: ma non ha funzionato. .. lo stesso tipo di errori.