يشرح هذا الدليل كيفية تمكين وتكوين ميزة البحث بالذكاء الاصطناعي، وهي جزء من إضافة Discourse AI.
مستوى المستخدم المطلوب: مسؤول
على غرار المواضيع ذات الصلة، يساعدك بحث الذكاء الاصطناعي في العثور على المواضيع الأكثر صلة باستخدام التشابه النصي الدلالي الذي يتجاوز المطابقة الدقيقة للكلمة الرئيسية التي يستخدمها البحث التقليدي. ينتج عن هذا اكتشاف مواضيع ليست مطابقة تمامًا ولكنها لا تزال ذات صلة بالبحث الأولي. إذا لم تتمكن من العثور على ما تبحث عنه، فإن بحث الذكاء الاصطناعي موجود للمساعدة!
الميزات
- التشابه النصي الدلالي: تجاوز مجرد مطابقة الكلمات الرئيسية واستخدام التحليل الدلالي للعثور على التشابه النصي
- البحث السريع بالذكاء الاصطناعي: يضيف تلقائيًا نتائج الذكاء الاصطناعي في نافذة البحث المنبثقة عند العثور على عدد قليل من النتائج العادية (يتم تمكينه باستخدام
ai_embeddings_semantic_quick_search_enabled) - التبديل بين التشغيل/الإيقاف لبحث الذكاء الاصطناعي في البحث بملء الصفحة
- التضمينات الافتراضية (HyDE) الاختيارية: تستخدم نموذج لغة كبير (LLM) لتوسيع الاستعلامات للحصول على نتائج أفضل
- النتائج المشار إليها برمز

- قابلة للتطبيق على المستخدمين المجهولين والمستخدمين المسجلين الدخول
تمكين بحث الذكاء الاصطناعي
المتطلبات الأساسية
لاستخدام بحث الذكاء الاصطناعي، ستحتاج إلى تكوين التضمينات (Embeddings). يلزم نموذج لغة كبير (LLM) اختياريًا إذا قمت بتمكين التضمينات الافتراضية (HyDE) لتحسين جودة البحث.
التضمينات (Embeddings)
إذا كنت تستخدم الاستضافة الخاصة بنا، فسنوفر خيارًا افتراضيًا. بالنسبة للمستضيفين الذاتيين، اتبع الدليل في Discourse AI - Embeddings
نموذج اللغة الكبير (LLM) (اختياري - لـ HyDE)
لا يلزم وجود نموذج لغة كبير (LLM) إلا إذا قمت بتمكين الإعداد ai_embeddings_semantic_search_use_hyde، والذي يستخدم نموذج لغة كبير (LLM) لإنشاء مستند افتراضي من استعلام البحث قبل تضمينه. يمكن أن يؤدي هذا إلى تحسين جودة النتائج ولكنه يضيف زمن انتقال وتكلفة.
للبدء، يمكنك تكوينها عبر صفحة إعدادات نموذج اللغة الكبير (LLM) للذكاء الاصطناعي في Discourse.
- OpenAI
- Anthropic
- Azure OpenAI
- AWS Bedrock مع وصول Anthropic
- استضافة نموذج لغة كبير مفتوح المصدر ذاتيًا لـ DiscourseAI
- Google Gemini
التكوين
- انتقل إلى
مسؤول←إضافات←Discourse AI←الميزات←التضمينات (Embeddings)للعثور على جميع إعدادات بحث الذكاء الاصطناعي - قم بتمكين
ai_embeddings_enabledللتضمينات (Embeddings) - قم بتمكين
ai_embeddings_semantic_search_enabledلتنشيط بحث الذكاء الاصطناعي في البحث بملء الصفحة - اختياريًا، قم بتمكين
ai_embeddings_semantic_quick_search_enabledلإضافة نتائج الذكاء الاصطناعي في نافذة البحث المنبثقة - اختياريًا، قم بتمكين
ai_embeddings_semantic_search_use_hydeلاستخدام HyDE للحصول على نتائج محسنة (يتطلب نموذج لغة كبير (LLM))
الأسئلة الشائعة التقنية
توسيع للحصول على مخطط منطق بحث الذكاء الاصطناعي (مع تمكين HyDE)
sequenceDiagram
User->>+Discourse: بحث "gamification"
Discourse->>+LLM: إنشاء مقال حول "gamification" في منتدى حول<br> "Discourse، نظام منتديات إنترنت مفتوح المصدر."
LLM->>+Discourse: تتضمن Gamification تطبيق عناصر تصميم الألعاب مثل<br> النقاط والشارات والمستويات ولوحات المتصدرين في سياقات غير ألعاب...
Discourse->>+EmbeddingsAPI: إنشاء تضمينات لـ "Gamification تتضمن تطبيق تصميم اللعبة..."
EmbeddingsAPI->>+Discourse: [0.123, -0.321...]
Discourse->>+PostgreSQL: أعطني أقرب المواضيع لـ [0.123, -0.321...]
PostgreSQL->>+Discourse: المواضيع: [1, 5, 10, 50]
Discourse->>+User: المواضيع: [1, 5, 10, 50]
كيف يعمل بحث الذكاء الاصطناعي؟
- عند تمكين HyDE (
ai_embeddings_semantic_search_use_hyde)، يتم تمرير استعلام البحث عبر نموذج لغة كبير (LLM) الذي ينشئ موضوعًا/منشورًا افتراضيًا. يتم بعد ذلك إنشاء تضمينات من هذا المنشور الافتراضي وتُستخدم للبحث في موقعك عن تطابقات مماثلة. عند تعطيل HyDE (الإعداد الافتراضي)، يتم تضمين استعلام البحث مباشرة ويُستخدم لمطابقة التشابه. في كلتا الحالتين، يتم دمج النتائج مع نتائج البحث العادية باستخدام دمج الرتبة التبادلية (RRF) لإعادة ترتيب أفضل النتائج.
كيف تتم معالجة بيانات الموضوع/المنشور؟
- عند تمكين HyDE، تتم معالجة بيانات نموذج اللغة الكبير (LLM) بواسطة مزود طرف ثالث؛ يرجى الرجوع إلى مزودك المحدد لمزيد من التفاصيل. افتراضيًا، يتم تشغيل الخدمة المصغرة للتضمينات (Embeddings) جنبًا إلى جنب مع الخوادم الأخرى التي تستضيف منتدياتك الحالية. لا يوجد طرف ثالث متورط هنا، وهذه المعلومات المحددة لا تغادر شبكتك الداخلية أبدًا في مركز البيانات الخاص الافتراضي الخاص بنا.
إلى أين تذهب البيانات؟
- عند تمكين HyDE، يتم تخزين أي موضوع/منشور افتراضي تم إنشاؤه بواسطة موفر نموذج اللغة الكبير (LLM) مؤقتًا بجوار التضمينات الخاصة بهذا المستند. يتم تخزين بيانات التضمينات في نفس قاعدة البيانات التي نُخزن فيها مواضيعك ومنشوراتك ومستخدميك، وهي عبارة عن جدول بيانات آخر هناك.
ما هو شكل “النموذج الدلالي” للتضمينات؟ وكيف تم “تدريبه”، وهل هناك طريقة لاختبار قدرته على التطبيق بدقة على المواضيع في مجتمعاتنا “المتخصصة”؟
- افتراضيًا، نستخدم نماذج مفتوحة المصدر مُدربة مسبقًا، مثل هذا النموذج. لقد نشرنا لعمل العديد من العملاء، ووجدنا أنه يعمل بشكل جيد لكل من المجتمعات المتخصصة والعامة. إذا لم يكن الأداء جيدًا بما فيه الكفاية لحالة الاستخدام الخاصة بك، فلدينا نماذج أكثر تعقيدًا جاهزة للاستخدام، ولكن من واقع خبرتنا، فإن الخيار الافتراضي هو خيار قوي.