Feliz em iniciar outro tópico se isso for mais apropriado. Muito útil, no geral, neste tópico, para colocar o Ollama em funcionamento, obrigado!
Estou tentando fazer o Ollama funcionar com embeddings também e, apesar de inserir configurações semelhantes às mencionadas acima, recebo o seguinte erro ao executar o teste:
Tentando contatar o modelo retornou este erro: {"error":{"message":"[] é muito curto - 'messages'","type":"invalid_request_error","param":null,"code":null}}