So verwenden Sie Ollama mit Embeddings

Gerne starte ich einen weiteren Thread, falls das besser passt. Insgesamt war dieser Thread sehr hilfreich, um Ollama zum Laufen zu bringen, danke!

Ich versuche auch, Ollama mit Embeddings zu verwenden, und trotz ähnlicher Einstellungen wie oben erhalte ich beim Testen den folgenden Fehler:

Versuch, das Modell zu kontaktieren, führte zu folgendem Fehler: {"error":{"message":"[] ist zu kurz - 'messages'","type":"invalid_request_error","param":null,"code":null}}

Welchen Endpunkt verwenden Sie? Der OpenAI-kompatible Endpunkt befindet sich unter v1/embeddings und sollte problemlos funktionieren.

2 „Gefällt mir“

Das war genau das, was mir gefehlt hat, danke Falco!

1 „Gefällt mir“

This topic was automatically closed 30 days after the last reply. New replies are no longer allowed.