Como Usar Ollama com Embeddings

Feliz em iniciar outro tópico se isso for mais apropriado. Muito útil, no geral, neste tópico, para colocar o Ollama em funcionamento, obrigado!

Estou tentando fazer o Ollama funcionar com embeddings também e, apesar de inserir configurações semelhantes às mencionadas acima, recebo o seguinte erro ao executar o teste:

Tentando contatar o modelo retornou este erro: {"error":{"message":"[] é muito curto - 'messages'","type":"invalid_request_error","param":null,"code":null}}

Qual endpoint você está usando? O compatível com OpenAI está em v1/embeddings e deve funcionar perfeitamente.

2 curtidas

Isso foi exatamente o que eu estava perdendo, obrigado Falco!

1 curtida

This topic was automatically closed 30 days after the last reply. New replies are no longer allowed.