Selbst-Hosting eines Open-Source LLM für DiscourseAI

Die schnelle Antwort ist ein Plugin, um diesen Header hinzuzufügen. Eine Übergangslösung könnte ein lokaler Proxy-Server sein, den Sie von Discourse aus ansprechen würden und der den Header hinzufügt und die Daten zurück an Discourse weiterleitet. Eine unbestätigte Quelle deutet darauf hin, dass Sie NGINX dazu bringen könnten, dies für Sie mit etwas wie

server {
    listen 80;
    
    location / {
        proxy_pass https://api.example.com;
        proxy_set_header SubscriptionKey xyz;
        proxy_set_header Host $host;
    }
}

Es könnte einen cleveren Weg geben, dies zur NGINX-Konfiguration von Discourse an einem geheimen Pfad hinzuzufügen (der auch nur auf Ihren Server hört).

1 „Gefällt mir“