Come usare Ollama con gli embedding

Felice di iniziare un altro thread se è più appropriato. È stato molto utile in generale in questa discussione per mettere in funzione Ollama, grazie!

Sto cercando di far funzionare Ollama anche con gli embedding e, nonostante abbia inserito impostazioni simili a quelle menzionate sopra, ottengo il seguente errore durante il test:

Tentando di contattare il modello, si è verificato questo errore: {"error":{"message":"[] è troppo breve - 'messages'","type":"invalid_request_error","param":null,"code":null}}

Quale endpoint stai usando? Quello compatibile con OpenAI si trova sotto v1/embeddings e dovrebbe funzionare senza problemi.

2 Mi Piace

Esattamente quello che mi mancava, grazie Falco!

1 Mi Piace

This topic was automatically closed 30 days after the last reply. New replies are no longer allowed.