يغطي هذا الدليل صفحة إعدادات نموذج اللغة الكبير (LLM)، وهي جزء من إضافة Discourse AI.
مستوى المستخدم المطلوب: مسؤول
تم تصميم صفحة الإعدادات المخصصة بحيث تحتوي على كل ما يتعلق بنماذج اللغة الكبيرة (LLMs) المستخدمة لميزات Discourse AI في مكان واحد.
اعتمادًا على ميزة Discourse AI المُمكّنة، قد يكون نموذج LLM مطلوبًا. يُرجى التحقق من كل ميزة من ميزات Discourse AI لمعرفة ما إذا كان نموذج LLM متطلبًا مسبقًا.
الميزات
- إضافة نماذج جديدة بمعلومات مُعبأة مسبقًا
- إضافة نماذج مخصصة غير مذكورة
- تكوين إعدادات LLM
- السماح بالاستخدام المحدد لنموذج LLM لروبوت الذكاء الاصطناعي
- عرض اسم مستخدم روبوت الذكاء الاصطناعي
- تمكين دعم الرؤية (يعتمد على النموذج)
- تكوين أنواع المرفقات المسموح بها
- إعداد حصص استخدام لكل مجموعة
- تتبع تكاليف الرموز المميزة للإدخال/الإخراج
- اختبار
- حفظ الإعدادات
إضافة اتصالات نماذج اللغة الكبيرة (LLM)
- انتقل إلى
مسؤول←الإضافات←الذكاء الاصطناعي - انتقل إلى علامة التبويب
نماذج اللغة الكبيرة (LLMs) - أضف اتصالاً جديدًا، واختر النموذج الخاص بك
- أضف مفتاح واجهة برمجة التطبيقات (API Key) (اعتمادًا على النموذج، قد تحتاج إلى إدخال المزيد من الحقول يدويًا) واحفظ
- (اختياري) اختبر اتصالك للتأكد من أنه يعمل
نماذج اللغة الكبيرة المدعومة
يمكنك دائمًا إضافة خيار مخصص إذا لم تجد النموذج الخاص بك مدرجًا. تتم إضافة النماذج المدعومة باستمرار. النماذج المكونة مسبقًا هي قوالب — يمكنك دائمًا تحقيق نفس النتيجة باستخدام “التكوين اليدوي”.
أنثروبيك (Anthropic)
- كلود أوبوس 4.6 (Claude Opus 4.6)
- كلود سونيت 4.6 (Claude Sonnet 4.6)
- كلود هايكو 4.5 (Claude Haiku 4.5)
جوجل (Google) - جيميناي 3 برو (Gemini 3 Pro)
- جيميناي 3 فلاش (Gemini 3 Flash)
أوبن إيه آي (OpenAI) - جي بي تي-5.4 (GPT-5.4)
- جي بي تي-5 ميني (GPT-5 Mini)
- جي بي تي-5 نانو (GPT-5 Nano)
الموجه المفتوح (Open Router) - ديب سيك في 3.2 (DeepSeek V3.2)
- مون شوت كيمي كيه 2.5 (Moonshot Kimi K2.5)
- إكس إيه آي جروك 4 فاست (xAI Grok 4 Fast)
- ميني ماكس إم 2.5 (MiniMax M2.5)
- زد-إيه آي جي إل إم-5 (Z-AI GLM-5)
- … والعديد والعديد غيرها
بالإضافة إلى ذلك، يمكن للعملاء المستضافين استخدام نموذج LLM الصغير المستضاف من CDCK والمكوّن مسبقًا في صفحة الإعدادات. هذا نموذج LLM مفتوح الأوزان مستضاف من قبل ديسكورس، وجاهز للاستخدام لتشغيل ميزات الذكاء الاصطناعي.
حقول التكوين
سترى فقط الحقول ذات الصلة بمزود نموذج اللغة الكبير (LLM) الذي اخترته. يُرجى التحقق مرة أخرى من أي من الحقول المُعبأة مسبقًا باستخدام المزود المناسب، مثل
اسم النموذج
الحقول الأساسية:
اسم العرض— الاسم الودود المعروض في القوائم المنسدلةاسم النموذج— مُعرّف النموذج المُرسل إلى واجهة برمجة التطبيقات (API) (على سبيل المثال،claude-sonnet-4-6،gpt-5.2)الموفر— الخدمة التي تستضيف النموذج (على سبيل المثال، أنثروبيك، أوبن إيه آي، جوجل، إيه دبليو إس بيدروك، أزور، الموجه المفتوح، إلخ)عنوان URL— عنوان نقطة نهاية واجهة برمجة التطبيقات (API) (غير معروض لـ AWS Bedrock)مفتاح واجهة برمجة التطبيقات (API Key)— مُكوّن عبر نظام أسرار الذكاء الاصطناعي (AI Secrets)المُرمّز (Tokenizer)الحد الأقصى لرموز المطالبة (Max prompt tokens)— يتحكم في تقليم المطالبة لمنع الطلبات الكبيرة جدًاالحد الأقصى لرموز الإخراج (Max output tokens)تكلفة الإدخال (Input cost)/تكلفة الإخراج (Output cost)— التكلفة لكل مليون رمز، وتستخدم لتتبع الاستخدامتكلفة الإدخال المُخزّن مؤقتًا (Cached input cost)/تكلفة كتابة التخزين المؤقت (Cache write cost)— للمزودين الذين يدعمون التخزين المؤقت للمطالباتتمكين الرؤية (Vision enabled)— يتيح فهم الصور (يعتمد على النموذج)أنواع المرفقات المسموح بها (Allowed attachment types)— أنواع الملفات التي يمكن للنموذج معالجتها
حقول خاصة بالمزود (تُعرض ديناميكيًا بناءً على المزود المحدد):- AWS Bedrock:
معرّف مفتاح الوصول (Access Key ID)،دور ARN،المنطقة (Region)، خيارات التفكير/الاستدلال،التخزين المؤقت للمطالبات (Prompt caching) - أنثروبيك (Anthropic): خيارات التفكير/الاستدلال،
التخزين المؤقت للمطالبات (Prompt caching) - أوبن إيه آي (OpenAI):
معرّف المنظمة (Organization ID)،جهد الاستدلال (Reasoning effort)،طبقة الخدمة (Service tier) - جوجل (Google):
تمكين التفكير (Enable thinking)،مستوى التفكير (Thinking level) - الموجه المفتوح (Open Router):
ترتيب المزودين (Provider order)،تكميمات المزودين (Provider quantizations)
الحصص (متاحة بعد الحفظ الأولي): - يمكن تكوين حصص استخدام لكل مجموعة بحد أقصى للرموز، وحد أقصى للاستخدامات، والمدة
الأسئلة الشائعة التقنية
ما هو المُرمّز (tokenizer)؟
- يقوم المُرمّز بترجمة السلاسل النصية إلى رموز، وهو ما يستخدمه النموذج لفهم المدخلات.
ما هو الرقم الذي يجب أن أستخدمه لـالحد الأقصى لرموز المطالبة (Max prompt tokens)؟ - قاعدة عامة جيدة هي 50% من نافذة سياق النموذج، وهو مجموع عدد الرموز التي ترسلها وعدد الرموز التي يولدونها. إذا أصبحت المطالبة كبيرة جدًا، فسيفشل الطلب. يُستخدم هذا الرقم لتقليم المطالبة ومنع حدوث ذلك.
محاذير
- قد لا ترى أحيانًا النموذج الذي أردت استخدامه مدرجًا. بينما يمكنك إضافته يدويًا، سندعم النماذج الشائعة عند صدورها.


