Héberger soi-même un LLM open source pour DiscourseAI

La réponse rapide est un plugin pour ajouter cet en-tête. Une solution de contournement pourrait être un serveur proxy local que vous atteindriez depuis Discourse et qui ajouterait l’en-tête et renverrait les données à Discourse. Une source non fiable suggère que vous pourriez être en mesure de demander à NGINX de faire cela pour vous avec quelque chose comme

server {
    listen 80;
    
    location / {
        proxy_pass https://api.example.com;
        proxy_set_header SubscriptionKey xyz;
        proxy_set_header Host $host;
    }
}

Il pourrait y avoir une façon astucieuse d’ajouter cela à la configuration nginx de Discourse à un chemin secret (qui n’écouterait également que votre serveur).

1 « J'aime »