Tengo varios modelos LLM de código abierto ejecutándose en el servicio Hugging Face Inference Endpoint (esencialmente AWS)…
Para todos los modelos que he probado (llama, phi, gemma, etc.), puedo conectarme desde la página de configuración de Discourse LLM, pero la inferencia no funciona. Aquí está el error:
“Intentar contactar con el modelo devolvió este error: falta el campo inputs en la línea 1 columna 163”
Ha pasado más de un año desde la última vez que probé su API. ¿Es compatible con OpenAI hoy en día? Si es así, puedes intentar configurar Provider en OpenAI y apuntar a su endpoint.