Feliz de comenzar otro hilo si eso es más apropiado. En general, muy útil en este hilo para poner en marcha Ollama, ¡gracias!
Estoy intentando que Ollama funcione con embeddings también y, a pesar de ingresar configuraciones similares a las mencionadas anteriormente, obtengo el siguiente error al ejecutar la prueba:
Intentando contactar con el modelo, este error fue devuelto: {"error":{"message":"[] es demasiado corto - 'messages'","type":"invalid_request_error","param":null,"code":null}}