Discourse Meta
تشغيل Discourse AI مع Ollama محليًا
الدعم
ai
Falco
(Falco)
19 فبراير 2025، 7:25م
6
Set the URL to
http://localhost:11434/v1/chat/completions
إعجاب واحد (1)
إظهار المنشور في الموضوع
الموضوعات ذات الصلة
الموضوع
الردود
مرات العرض
النشاط
Internal Server Error 500- Manual configuration [ Discourse AI]
Support
ai
8
114
5 سبتمبر 2025
Self-Hosting an OpenSource LLM for DiscourseAI
Self-Hosting
ai
5
3070
21 فبراير 2025
Discourse AI - Self-Hosted Guide
Self-Hosting
ai
61
11992
30 أبريل 2025
Discourse AI
Plugin
included-in-core
,
ai
,
official
89
36793
14 أكتوبر 2025
Create custom LLM plugin or any other option?
Support
4
90
25 فبراير 2025