Cómo usar Ollama con embeddings

Feliz de comenzar otro hilo si eso es más apropiado. En general, muy útil en este hilo para poner en marcha Ollama, ¡gracias!

Estoy intentando que Ollama funcione con embeddings también y, a pesar de ingresar configuraciones similares a las mencionadas anteriormente, obtengo el siguiente error al ejecutar la prueba:

Intentando contactar con el modelo, este error fue devuelto: {"error":{"message":"[] es demasiado corto - 'messages'","type":"invalid_request_error","param":null,"code":null}}

¿Qué endpoint estás utilizando? El compatible con OpenAI está en v1/embeddings y debería funcionar sin problemas.

2 Me gusta

¡Eso era exactamente lo que me faltaba, gracias Falco!

1 me gusta

This topic was automatically closed 30 days after the last reply. New replies are no longer allowed.