ليس لدي علامة تبويب LLM على جهازي؛ لدي فقط هذه الخيارات في صفحة إعدادات الذكاء الاصطناعي الرئيسية

ليس لدي علامة تبويب LLM على جهازي؛ لدي فقط هذه الخيارات في صفحة إعدادات الذكاء الاصطناعي الرئيسية

كيف تم تثبيت النسخة الخاصة بك؟ هل تستخدم أحدث إصدار من Discourse؟ هل يمكنك المحاولة في الوضع الآمن بدون أي تخصيصات؟
لقد جربت الوضع الآمن، ولكن لم ينجح أي شيء. تم تثبيت البرنامج على جهاز Raspberry Pi 5 يعمل بنظام Raspberry Pi OS Lite مع Docker. أنا أستخدم حاليًا الإصدار 3.6.0.beta3-latest.
سوف تحتاج إلى الترقية إلى أحدث إصدار كحد أدنى. يجب أن تكون على Discourse v2025.11.0-latest.
شكراً سأفعل ذلك الآن
حسناً، كيف يمكنني الترقية إلى أحدث إصدار؟
إذا كان تثبيتًا قياسيًا يعتمد على دوكر (docker)، فإن ./launcher rebuild app سيحل المشكلة.
أنا الآن محدث بالكامل، شكراً لك يا صديقي، ولكن كيف يمكنني الآن استخدام أحد نماذجي المستضافة ذاتيًا على جهاز راسبيري باي الخاص بي مع Ollama إذا كان ذلك ممكنًا على الإطلاق؟
على الرغم من أن استضافة نموذج لغوي كبير (LLM) بالكامل و Discourse معًا على جهاز Pi ممكنة، إلا أنها على الأرجح ستؤدي إلى أداء غير مُرضٍ لكليهما.
فالكو يفعل هذا بالفعل
لقد حاولت تشغيل Ollama على جهاز Pi. استغرق الأمر وقتًا طويلاً لدرجة أنه استسلم عن محاولة الاتصال. ما لم يكن لديك قدر كبير من الموارد، فإن تشغيل Ollama على جهاز Pi بذاكرة وصول عشوائي (RAM) سعة 4 جيجابايت ليس أفضل فكرة. لست متأكدًا مما إذا كانت الذاكرة الافتراضية (swap) ستساعد كثيرًا.
على ملاحظة مشابهة ولكنها خارج الموضوع، في تجربتي، لا يعمل تشغيل بيئة تطوير Discourse على جهاز Pi بذاكرة وصول عشوائي (RAM) سعة 4 جيجابايت بدون ذاكرة افتراضية (swap) على بطاقة SD. ولكن هذا ليس له علاقة بالموضوع.