Autoalojamiento de un LLM de código abierto para DiscourseAI

La respuesta rápida es un complemento para agregar esa cabecera. Una solución alternativa podría ser un servidor proxy local al que se accedería desde Discourse y que agregaría la cabecera y enviaría los datos de vuelta a Discourse. Una fuente no confiable sugiere que podrías lograr que NGINX hiciera eso por ti con algo como

server {
    listen 80;
    
    location / {
        proxy_pass https://api.example.com;
        proxy_set_header SubscriptionKey xyz;
        proxy_set_header Host $host;
    }
}

Podría haber una forma ingeniosa de agregar eso a la configuración de nginx de Discourse en alguna ruta secreta (que también solo escuchara a tu servidor).

1 me gusta