Auto-hospedagem de um LLM open source para DiscourseAI

Haveria alguma maneira de adicionar um cabeçalho HTTP personalizado às requisições do Discourse AI? Temos um servidor equipado com GPU que usamos para diversos fins, ele possui uma API compatível com a OpenAI, mas por segurança, o colocamos atrás de um gateway de gerenciamento de API, que exige um cabeçalho HTTP personalizado (algo como SubscriptionKey) e fornecemos nossa chave de autenticação aqui.

Note que esta chave de autenticação é para passar pelo APIM e é diferente da chave de API que se forneceria para um serviço como a API da OpenAI.

Seria ótimo se houvesse uma maneira de adicionar Cabeçalhos Personalizados na configuração de cada LLM na página de configuração admin/plugins/discourse-ai/ai-llms. Talvez uma opção ‘Personalizado’ no menu suspenso ‘Provedor’, com opções adicionais para casos de uso como este?

1 curtida