Möglichkeiten zur Nutzung eines alternativen KI-Anbieters?

@Falco @sam gibt es Optionen, wenn wir unseren eigenen KI-Anbieter außerhalb der in den Einstellungen verfügbaren nutzen möchten? z. B. wenn wir unsere eigene Lösung hosten, wenn wir einen Dienst wie mendable.ai nutzen usw.

Wir unterstützen sowohl die vLLM- als auch die TGI-APIs für LLM-Inferenz, und jede API, die die OpenAI-API nachahmt, sollte funktionieren, indem sie ai openai gpt4 url darauf einstellt.

2 „Gefällt mir“

Es scheint, dass es für OpenAI nicht ganz 1:1 ist, aber es ist sehr nah dran:

Beim Durchlesen der API, insbesondere da wir newConversation aufrufen und den Zustand speichern müssen, wären ein paar Tage Arbeit in die Implementierung eines Dialekts/API-Endpunkts für Discourse AI erforderlich.

Nach meinem Dafürhalten ist das absolut machbar, aber es ist eine kundenspezifische Arbeit. Wir können es tun, wenn Sie es sponsern möchten.

Persönlich bin ich mir nicht sicher, ob diese kundenspezifischen Tiere langfristig gegen Frontier-Modelle gewinnen werden. Bedauerlicherweise für MENDABLE könnten sie nur eine GPT-5-Veröffentlichung davon entfernt sein, ziemlich veraltet zu werden.

Selbst Dinge wie GPT-4 / Claude Opus könnten heute, wenn sie sorgfältig verfeinert werden, dies wahrscheinlich übertreffen.

@Roman arbeitet daran, Ihnen zu ermöglichen, zusätzlichen externen Kontext über Dateien in eine Persona einzuspeisen.

Wir können heute bereits ziemlich erstaunliche Dinge mit einer benutzerdefinierten Persona tun. Sie könnten beispielsweise den GitHub-Helfer problemlos auf SailPoint spezifisch anpassen:

3 „Gefällt mir“