Estamos hospedando um fórum de discussão em nossa rede corporativa. Não podemos integrar o ChatGPT ou qualquer outro LLM público, mas há uma grande iniciativa em nossa empresa que está criando um serviço interno para módulos de IA (incluindo GPT).
Eles têm sua própria API, no entanto, e eu queria perguntar se seria possível escrever um plugin LLM personalizado?
Ou que outra opção temos?
As chamadas para esta API interna precisam ser autenticadas, e a própria API precisa de outra chave de API, portanto, há várias informações obrigatórias que devem ser fornecidas antecipadamente.
Desde que seus endpoints internos usem interfaces de API do tipo OpenAI, você pode usar o Discourse AI como está e apenas definir um LLM personalizado.
Vou experimentar. Uma grande preocupação que tenho, no entanto, é a questão da autenticação.
Não é apenas a chave de API, mas também baseada em OIDC (coisas de política corporativa )…
Significa que eu precisaria de alguma forma personalizar a maneira como o quadro faz requisições contra esta API. É possível sem fazer um fork e fazer eu mesmo?