Ich habe mehrere Open-Source-LLM-Modelle auf dem Hugging Face Inference Endpoint-Dienst (im Wesentlichen AWS) laufen.
Für alle getesteten Modelle (llama, phi, gemma usw.) kann ich mich von der Discourse LLM-Einstellungsseite aus verbinden, aber die Inferenz funktioniert nicht. Hier ist der Fehler:
„Der Versuch, das Modell zu kontaktieren, führte zu diesem Fehler: Fehlende Feld inputs in Zeile 1 Spalte 163“
Es ist über ein Jahr her, seit ich ihre API das letzte Mal ausprobiert habe. Ist sie heutzutage OpenAI-kompatibel? Wenn ja, können Sie versuchen, Provider auf OpenAI zu setzen und auf deren Endpunkt zu verweisen.