Das Plugin Discourse AI verfügt über viele Funktionen, die Embeddings erfordern, wie z. B. verwandte Themen, KI-Suche, Vorschläge für KI-Helfer-Kategorien und -Tags usw. Obwohl Sie eine Drittanbieter-API verwenden können, wie z. B. API-Schlüssel für OpenAI konfigurieren, API-Schlüssel für Cloudflare Workers AI konfigurieren oder API-Schlüssel für Google Gemini konfigurieren, haben wir Discourse AI von Anfang an so entwickelt, dass es nicht an diese gebunden ist.
Ausführung mit HuggingFace TEI
HuggingFace bietet ein hervorragendes Container-Image, mit dem Sie schnell loslegen können.
Zum Beispiel:
mkd ir -p /opt/tei-cache
docker run --rm --gpus all --shm-size 1g -p 8081:80 \
-v /opt/tei-cache:/data \
ghcr.io/huggingface/text-embeddings-inference:latest \
--model-id BAAI/bge-large-en-v1.5
Damit sollten Sie eine lokale Instanz von BAAI/bge-large-en-v1.5, einem sehr leistungsfähigen Open-Source-Modell, eingerichtet haben.
Sie können überprüfen, ob es funktioniert, mit
curl http://localhost:8081/ \
-X POST \
-H 'Content-Type: application/json' \
"{ \"inputs\": \"Testing string for embeddings\" }"
Dies sollte im Normalbetrieb ein Array von Gleitkommazahlen zurückgeben.
Verfügbarmachung für Ihre Discourse-Instanz
Meistens werden Sie dies aufgrund der GPU-Beschleunigung auf einem dedizierten Server ausführen. Wenn Sie dies tun, empfehle ich die Ausführung eines Reverse-Proxys, die TLS-Terminierung und die Sicherung des Endpunkts, sodass er nur von Ihrer Discourse-Instanz aufgerufen werden kann.
Konfiguration von DiscourseAI
Discourse AI enthält Website-Einstellungen zur Konfiguration des Inferenzservers für Open-Source-Modelle. Sie sollten ihn über den Tab “Embeddings” in den Admin-Einstellungen des KI-Plugins auf Ihren Server verweisen.