Comment utiliser Ollama avec des embeddings

Heureux de commencer un autre fil si cela est plus approprié. Très utile dans l’ensemble pour faire fonctionner Ollama, merci !

J’essaie également de faire fonctionner Ollama avec des embeddings et malgré avoir entré des paramètres similaires à ceux mentionnés ci-dessus, je reçois l’erreur suivante lors de l’exécution du test :

Tentative de contact avec le modèle a renvoyé cette erreur : {"error":{"message":"[] est trop court - 'messages'","type":"invalid_request_error","param":null,"code":null}}

Quel endpoint utilisez-vous ? Celui compatible avec OpenAI se trouve sous v1/embeddings et devrait fonctionner sans problème.

2 « J'aime »

C’était exactement ce qui me manquait, merci Falco !

1 « J'aime »

This topic was automatically closed 30 days after the last reply. New replies are no longer allowed.