wir veranstalten ein Discourse-Board in unserem Unternehmensnetzwerk. Wir können ChatGPT oder ein anderes öffentliches LLM nicht integrieren, aber es gibt eine große Initiative in unserem Unternehmen, die einen internen Dienst für KI-Module (einschließlich GPT) erstellt.
Sie haben ihre eigene API, und ich wollte fragen, ob es möglich wäre, ein benutzerdefiniertes LLM-Plugin zu schreiben?
Oder welche anderen Optionen haben wir?
Die Aufrufe an diese interne API müssen authentifiziert werden, und die API selbst benötigt einen weiteren API-Schlüssel, sodass mehrere obligatorische Informationen im Voraus bereitgestellt werden müssen.
Solange Ihre internen Endpunkte OpenAI-ähnliche API-Schnittstellen verwenden, können Sie Discourse AI wie gewohnt verwenden und einfach ein benutzerdefiniertes LLM definieren.
Ich werde es ausprobieren. Eine große Sorge, die ich jedoch habe, ist die Authentifizierungssache.
Es handelt sich nicht nur um API-Schlüssel, sondern auch um OIDC-basiert (Corporate Policy-Sachen )…
Das bedeutet, dass ich irgendwie anpassen müsste, wie das Board Anfragen an diese API stellt. Ist das ohne Forking und eigene Umsetzung möglich?