Gibt es eine Kostenrichtlinie, einen Maßstab oder eine Schätzformel, die mir hilft, die einmaligen (Massen-Einbettung) und laufenden (Einbettung und Suche) Kosten für die Aktivierung von Discourse AI mit einem Cloud-basierten LLM zu verstehen?
Welche typische Serverkonfiguration/Kosten wären für ein selbst gehostetes LLM erforderlich?
Ich glaube, man bräuchte eine GPU es ist besser mit einer GPU, wenn man selbst hosten möchte. Schauen Sie sich Dinge wie Ollama an.
Siehe auch:
In order to use certain Discourse AI features, users are required to use a Large Language Model (LLM) provider. Please see each AI feature to determine which LLMs are compatible.
If cost is a significant worry, one way to combat that is to set usage limits right from the vendor and use a monthly budget. Another option is to only let select users and groups access the AI features
There are several variable factors to consider when calculating the costs of using…
Falco
(Falco)
28. Oktober 2025 um 13:11
3
Verwandte Themen und KI-Suche verwenden kein LLM.
Es ist eine Anfrage pro Thema für Massen-Einbettungen, sodass die meisten Websites dies mit etwas wie der Gemini Free-Stufe tun können.
Die Suche ist eine Anfrage pro Suche und passt höchstwahrscheinlich in die kostenlose Stufe.
SubStrider:
Für Self-Hosted
Da dies nur ein Einbettungsmodell ist, sollten Sie Qwen/Qwen3-Embedding-0.6B · Hugging Face mit GitHub - huggingface/text-embeddings-inference: A blazing fast inference solution for text embeddings models auf einem einfachen 2 vCPU / 4 GB RAM problemlos selbst hosten können.
Es ist natürlich schneller auf einem Server mit GPU, läuft aber auch ohne problemlos.
1 „Gefällt mir“