من المهم فهم احتياجاتك كمسؤول مجتمع وأعضائك عند اختيار نموذج لغة كبير (LLM) لتشغيل ميزات Discourse AI.
قد تؤثر عدة عوامل على قراراتك:
- الأداء لحالة الاستخدام: هل تبحث عن النموذج ذي الأداء الأفضل؟ يمكن أن يختلف الأداء اعتمادًا على المهمة (مثل التلخيص، البحث، الاستدلال المعقد، اكتشاف البريد العشوائي). يعتمد التقييم على قدرة النموذج على إنشاء استجابات صحيحة وذات صلة ومتماسكة.
- طول السياق: نافذة السياق هي مقدار النص الذي يمكن للنموذج “رؤيته” وأخذه في الاعتبار في وقت واحد. تسمح نوافذ السياق الأكبر بمعالجة المزيد من المعلومات (مثل المواضيع الأطول للتلخيص) والحفاظ على التماسك على مدى تفاعلات أطول.
- التوافق: هل يتم دعم النموذج مباشرةً بواسطة المكون الإضافي Discourse AI؟ هل سيتطلب نقاط نهاية واجهة برمجة تطبيقات (API) أو تكوينًا محددًا؟ تحقق من وثائق المكون الإضافي لموفري النماذج والنماذج المدعومة.
- دعم اللغة: في حين أن العديد من نماذج LLM الرائدة تتعامل مع لغات متعددة بشكل جيد، يمكن أن يختلف الأداء. إذا كان مجتمعك يستخدم بشكل أساسي لغة غير الإنجليزية، فمن المستحسن اختبار نماذج محددة لتلك اللغة.
- القدرات متعددة الوسائط: تتطلب بعض الميزات، مثل تسمية الصور في AI Helper، نماذج يمكنها معالجة الصور (الرؤية). تأكد من أن النموذج المختار يدعم الوسائط المطلوبة.
- السرعة والأوضاع: يمكن أن تكون النماذج الأكبر والأكثر قوة أبطأ. بالنسبة للميزات في الوقت الفعلي مثل AI Helper أو البحث، قد توفر النماذج الأسرع تجربة مستخدم أفضل. تقدم بعض النماذج أوضاعًا مختلفة (مثل مستويات بذل جهد ممتد للتفكير أو الاستدلال)، مما يسمح بالمقايضة بين السرعة والاستدلال الأعمق.
- التكلفة: تعد الميزانية عاملاً رئيسيًا في كثير من الأحيان. تختلف تكاليف النماذج بشكل كبير بناءً على الموفر ومستوى النموذج. تُقاس التكاليف عادةً لكل رمز مميز (مدخل ومخرج). النماذج الأسرع/الأصغر تكون عمومًا أرخص من النماذج الكبيرة/عالية الأداء. غالبًا ما يمكن تشغيل النماذج مفتوحة المصدر بتكلفة أكثر فعالية اعتمادًا على الاستضافة.
- مخاوف الخصوصية: لدى موفري LLM المختلفين سياسات متفاوتة لاستخدام البيانات والخصوصية. راجع شروط الخدمة، خاصة فيما يتعلق بما إذا كان من الممكن استخدام بياناتك لأغراض التدريب. يقدم بعض الموفرين خيارات عدم الاحتفاظ بالبيانات.
- مفتوح المصدر مقابل مغلق المصدر: توفر النماذج مفتوحة المصدر الشفافية وإمكانية الاستضافة الذاتية أو الضبط الدقيق، على الرغم من أنها قد تتطلب جهدًا تقنيًا أكبر. تكون النماذج مغلقة المصدر أسهل بشكل عام في الاستخدام عبر واجهات برمجة التطبيقات ولكنها توفر تحكمًا وشفافية أقل.
اختيار LLM لميزات Discourse AI
يتطور مشهد LLM بسرعة. يقدم الجدول أدناه نظرة عامة عامة على النماذج الشائعة والقادرة حاليًا والمناسبة لميزات Discourse AI المختلفة، مصنفة حسب نقاط قوتها النموذجية وملفات التكلفة الخاصة بها. يتم سرد النماذج ضمن كل فئة أبجديًا.
هذه إرشادات عامة. تحقق دائمًا من وثائق المكون الإضافي Discourse AI الرسمية للحصول على أحدث قائمة بالنماذج المدعومة والمتطلبات التكوينية. يتغير الأداء والتكلفة بشكل متكرر؛ استشر وثائق موفر LLM للحصول على أحدث التفاصيل. يمكن أن يعتمد توفر وأداء النماذج مفتوحة المصدر على الموفر المحدد أو إعداد الاستضافة.
أحد الخيارات البديلة للعملاء المستضافين هو استخدام نماذج LLM المكونة مسبقًا والمتاحة عبر واجهة إدارة المكون الإضافي Discourse AI. يمكن إعدادها عبر Admin → Plugins → AI → LLMs، مما يوفر إعدادات مسبقة بنقرة واحدة للنماذج الشائعة من Anthropic وGoogle وOpenAI وOpenRouter.
| الفئة | النموذج | الموفر | نقاط القوة الرئيسية / حالات الاستخدام | ملاحظات |
|---|---|---|---|---|
| أفضل أداء/استدلال | Claude Opus 4.6 | Anthropic | أقصى قدرة على الاستدلال، المهام المعقدة، التحليل، التوليد | أعلى نموذج تكلفة من Anthropic، سياق 200 ألف، رؤية ممتازة |
| Gemini 3 Pro | أداء عالٍ، نافذة سياق كبيرة جدًا، قدرات متعددة الوسائط قوية | سياق مليون رمز، شامل ممتاز | ||
| GPT-5.2 | OpenAI | استدلال متطور، مهام معقدة، توليد، رؤية | سياق 400 ألف، شامل قوي من OpenAI | |
| xAI Grok 4 Fast | xAI (عبر OpenRouter) | استدلال قوي، أداء تنافسي | متاح عبر OpenRouter، قادر على الرؤية | |
| متوازن (متعدد الأغراض) | Claude Sonnet 4.6 | Anthropic | أداء عالٍ، استدلال جيد، سياق كبير، رؤية، سريع | خيار افتراضي ممتاز، يوازن بين السرعة والقدرة، سياق 200 ألف |
| DeepSeek V3.2 | DeepSeek (عبر OpenRouter) | أداء عام قوي، قيمة جيدة | خيار مفتوح المصدر، فعال من حيث التكلفة للاستخدام الواسع، سياق 163 ألف | |
| Moonshot Kimi K2.5 | Moonshot (عبر OpenRouter) | أداء قوي، سياق كبير جدًا، رؤية | نافذة سياق 262 ألف، قيمة جيدة | |
| فعال من حيث التكلفة/السرعة | Claude Haiku 4.5 | Anthropic | سريع ومنخفض التكلفة، مناسب للمهام الأبسط، قادر على الرؤية | الأفضل للاحتياجات عالية الحجم وزمن الاستجابة المنخفض مثل البحث والملخصات الأساسية |
| Gemini 3 Flash | سريع جدًا وفعال من حيث التكلفة، قدرات عامة جيدة، رؤية | سياق مليون رمز، جيد للتلخيص والبحث ومهام المساعد | ||
| GPT-5 Mini | OpenAI | سريع، ميسور التكلفة، جيد للعديد من المهام | سياق 400 ألف، توازن جيد بين التكلفة/الأداء للميزات الأبسط | |
| GPT-5 Nano | OpenAI | الأسرع وخيار OpenAI الأرخص | الأفضل للاحتياجات الأعلى حجمًا والأقل تكلفة | |
| Arcee Trinity Large (Free) | Arcee (عبر OpenRouter) | خيار الطبقة المجانية، سياق 128 ألف | جيد للاختبار أو النشرات ذات الميزانية المحدودة للغاية | |
| قادر على الرؤية | Claude Opus 4.6 / Sonnet 4.6 / Haiku 4.5 | Anthropic | جميع نماذج Anthropic الحالية تدعم الرؤية | مفيد لتسمية الصور في AI Helper |
| Gemini 3 Pro / 3 Flash | قدرات رؤية قوية | مفيد لتسمية الصور في AI Helper | ||
| GPT-5.2 | OpenAI | تكامل النص والرؤية | مفيد لتسمية الصور في AI Helper | |
| Moonshot Kimi K2.5 | Moonshot (عبر OpenRouter) | قادر على الرؤية | متاح عبر OpenRouter | |
| xAI Grok 4 Fast | xAI (عبر OpenRouter) | قادر على الرؤية | متاح عبر OpenRouter |
توصيات عامة مطابقة (مبسطة):
- روبوت الذكاء الاصطناعي (الأسئلة والأجوبة المعقدة، الوكلاء): نماذج أفضل أداء/استدلال (Claude Opus 4.6، Gemini 3 Pro، GPT-5.2) أو نماذج متوازنة قوية (Claude Sonnet 4.6، DeepSeek V3.2).
- بحث/اكتشاف الذكاء الاصطناعي: نماذج فعالة من حيث التكلفة/السرعة (Haiku 4.5، Gemini 3 Flash، GPT-5 Mini/Nano) أو نماذج متوازنة لفهم أفضل قليلاً (Sonnet 4.6، DeepSeek V3.2).
- مساعد الذكاء الاصطناعي (اقتراحات العناوين، التدقيق اللغوي، الترجمة): نماذج فعالة من حيث التكلفة/السرعة أو نماذج متوازنة. غالبًا ما تكون السرعة مفضلة. يُعد Claude Sonnet 4.6 أو GPT-5 Mini مرشحين جيدين.
- التلخيص: نماذج متوازنة (Claude Sonnet 4.6، GPT-5.2، DeepSeek V3.2) أو نماذج فعالة من حيث التكلفة (Gemini 3 Flash، GPT-5 Mini). تعد نوافذ السياق الأطول (Gemini 3 Pro/Flash بسعة مليون رمز) مفيدة للمواضيع الطويلة.
- اكتشاف البريد العشوائي: نماذج فعالة من حيث التكلفة/السرعة عادة ما تكون كافية وفعالة من حيث التكلفة (Haiku 4.5، Gemini 3 Flash، GPT-5 Mini/Nano).
- الترجمة: تعمل النماذج الفعالة من حيث التكلفة/السرعة بشكل جيد لمهام اكتشاف اللغة والترجمة (Haiku 4.5، Gemini 3 Flash، GPT-5 Mini).
- الأتمتة (الفرز، التقارير): يعتمد على التعقيد. تعمل قواعد الفرز البسيطة بشكل جيد مع النماذج الفعالة من حيث التكلفة. يستفيد الفرز المعقد القائم على الوكيل من النماذج المتوازنة أو ذات الأداء الأفضل.
تذكر تكوين نماذج LLM المحددة في مسؤول Discourse (Discourse Admin) ضمن Plugins → AI → Features لكل ميزة، وإعداد اتصالات LLM ضمن Plugins → AI → LLMs.