Discourse AI - بحث الذكاء الاصطناعي

:bookmark: يشرح هذا الدليل كيفية تمكين وتكوين ميزة البحث بالذكاء الاصطناعي، وهي جزء من إضافة Discourse AI.

:person_raising_hand: مستوى المستخدم المطلوب: مسؤول

على غرار المواضيع ذات الصلة، يساعدك بحث الذكاء الاصطناعي في العثور على المواضيع الأكثر صلة باستخدام التشابه النصي الدلالي الذي يتجاوز المطابقة الدقيقة للكلمة الرئيسية التي يستخدمها البحث التقليدي. ينتج عن هذا اكتشاف مواضيع ليست مطابقة تمامًا ولكنها لا تزال ذات صلة بالبحث الأولي. إذا لم تتمكن من العثور على ما تبحث عنه، فإن بحث الذكاء الاصطناعي موجود للمساعدة!

الميزات

  • التشابه النصي الدلالي: تجاوز مجرد مطابقة الكلمات الرئيسية واستخدام التحليل الدلالي للعثور على التشابه النصي
  • البحث السريع بالذكاء الاصطناعي: يضيف تلقائيًا نتائج الذكاء الاصطناعي في نافذة البحث المنبثقة عند العثور على عدد قليل من النتائج العادية (يتم تمكينه باستخدام ai_embeddings_semantic_quick_search_enabled)
  • التبديل بين التشغيل/الإيقاف لبحث الذكاء الاصطناعي في البحث بملء الصفحة
  • التضمينات الافتراضية (HyDE) الاختيارية: تستخدم نموذج لغة كبير (LLM) لتوسيع الاستعلامات للحصول على نتائج أفضل
  • النتائج المشار إليها برمز :sparkles:
  • قابلة للتطبيق على المستخدمين المجهولين والمستخدمين المسجلين الدخول

تمكين بحث الذكاء الاصطناعي

المتطلبات الأساسية

لاستخدام بحث الذكاء الاصطناعي، ستحتاج إلى تكوين التضمينات (Embeddings). يلزم نموذج لغة كبير (LLM) اختياريًا إذا قمت بتمكين التضمينات الافتراضية (HyDE) لتحسين جودة البحث.

التضمينات (Embeddings)

إذا كنت تستخدم الاستضافة الخاصة بنا، فسنوفر خيارًا افتراضيًا. بالنسبة للمستضيفين الذاتيين، اتبع الدليل في Discourse AI - Embeddings

نموذج اللغة الكبير (LLM) (اختياري - لـ HyDE)

لا يلزم وجود نموذج لغة كبير (LLM) إلا إذا قمت بتمكين الإعداد ai_embeddings_semantic_search_use_hyde، والذي يستخدم نموذج لغة كبير (LLM) لإنشاء مستند افتراضي من استعلام البحث قبل تضمينه. يمكن أن يؤدي هذا إلى تحسين جودة النتائج ولكنه يضيف زمن انتقال وتكلفة.

للبدء، يمكنك تكوينها عبر صفحة إعدادات نموذج اللغة الكبير (LLM) للذكاء الاصطناعي في Discourse.

التكوين

  1. انتقل إلى مسؤولإضافاتDiscourse AIالميزاتالتضمينات (Embeddings) للعثور على جميع إعدادات بحث الذكاء الاصطناعي
  2. قم بتمكين ai_embeddings_enabled للتضمينات (Embeddings)
  3. قم بتمكين ai_embeddings_semantic_search_enabled لتنشيط بحث الذكاء الاصطناعي في البحث بملء الصفحة
  4. اختياريًا، قم بتمكين ai_embeddings_semantic_quick_search_enabled لإضافة نتائج الذكاء الاصطناعي في نافذة البحث المنبثقة
  5. اختياريًا، قم بتمكين ai_embeddings_semantic_search_use_hyde لاستخدام HyDE للحصول على نتائج محسنة (يتطلب نموذج لغة كبير (LLM))

الأسئلة الشائعة التقنية

توسيع للحصول على مخطط منطق بحث الذكاء الاصطناعي (مع تمكين HyDE)
sequenceDiagram
    User->>+Discourse: بحث "gamification" 
    Discourse->>+LLM: إنشاء مقال حول "gamification" في منتدى حول<br>  "Discourse، نظام منتديات إنترنت مفتوح المصدر."
    LLM->>+Discourse: تتضمن Gamification تطبيق عناصر تصميم الألعاب مثل<br> النقاط والشارات والمستويات ولوحات المتصدرين في سياقات غير ألعاب...
    Discourse->>+EmbeddingsAPI: إنشاء تضمينات لـ "Gamification تتضمن تطبيق تصميم اللعبة..."
    EmbeddingsAPI->>+Discourse: [0.123, -0.321...]
    Discourse->>+PostgreSQL: أعطني أقرب المواضيع لـ [0.123, -0.321...]
    PostgreSQL->>+Discourse: المواضيع: [1, 5, 10, 50]
    Discourse->>+User: المواضيع: [1, 5, 10, 50]

كيف يعمل بحث الذكاء الاصطناعي؟

  • عند تمكين HyDE (ai_embeddings_semantic_search_use_hyde)، يتم تمرير استعلام البحث عبر نموذج لغة كبير (LLM) الذي ينشئ موضوعًا/منشورًا افتراضيًا. يتم بعد ذلك إنشاء تضمينات من هذا المنشور الافتراضي وتُستخدم للبحث في موقعك عن تطابقات مماثلة. عند تعطيل HyDE (الإعداد الافتراضي)، يتم تضمين استعلام البحث مباشرة ويُستخدم لمطابقة التشابه. في كلتا الحالتين، يتم دمج النتائج مع نتائج البحث العادية باستخدام دمج الرتبة التبادلية (RRF) لإعادة ترتيب أفضل النتائج.

كيف تتم معالجة بيانات الموضوع/المنشور؟

  • عند تمكين HyDE، تتم معالجة بيانات نموذج اللغة الكبير (LLM) بواسطة مزود طرف ثالث؛ يرجى الرجوع إلى مزودك المحدد لمزيد من التفاصيل. افتراضيًا، يتم تشغيل الخدمة المصغرة للتضمينات (Embeddings) جنبًا إلى جنب مع الخوادم الأخرى التي تستضيف منتدياتك الحالية. لا يوجد طرف ثالث متورط هنا، وهذه المعلومات المحددة لا تغادر شبكتك الداخلية أبدًا في مركز البيانات الخاص الافتراضي الخاص بنا.

إلى أين تذهب البيانات؟

  • عند تمكين HyDE، يتم تخزين أي موضوع/منشور افتراضي تم إنشاؤه بواسطة موفر نموذج اللغة الكبير (LLM) مؤقتًا بجوار التضمينات الخاصة بهذا المستند. يتم تخزين بيانات التضمينات في نفس قاعدة البيانات التي نُخزن فيها مواضيعك ومنشوراتك ومستخدميك، وهي عبارة عن جدول بيانات آخر هناك.

ما هو شكل “النموذج الدلالي” للتضمينات؟ وكيف تم “تدريبه”، وهل هناك طريقة لاختبار قدرته على التطبيق بدقة على المواضيع في مجتمعاتنا “المتخصصة”؟

  • افتراضيًا، نستخدم نماذج مفتوحة المصدر مُدربة مسبقًا، مثل هذا النموذج. لقد نشرنا لعمل العديد من العملاء، ووجدنا أنه يعمل بشكل جيد لكل من المجتمعات المتخصصة والعامة. إذا لم يكن الأداء جيدًا بما فيه الكفاية لحالة الاستخدام الخاصة بك، فلدينا نماذج أكثر تعقيدًا جاهزة للاستخدام، ولكن من واقع خبرتنا، فإن الخيار الافتراضي هو خيار قوي.
6 إعجابات

لقد لاحظت خطأً بسيطًا في واجهة المستخدم لـ ai embeddings semantic search hyde model. خطوات التكرار

  1. تثبيت إضافة AI Discourse
  2. فتح الإعدادات → تكوين مفتاح Gemini
  3. تمكين i embeddings semantic search enabled
  4. يظهر ai embeddings semantic search hyde model كـ Google - gemini-pro (لم يتم التكوين)

لا يختفي لم يتم التكوين إلا بعد تمكين جميع التكوينات وتحديث الصفحة بعد ذلك.

إعجابَين (2)

أعتقد أن هذا قيد على صفحة إعدادات موقعنا لذا أعتذر عن ذلك ويسعدني أنك تمكنت من حل المشكلة.

إعجاب واحد (1)

سؤال حول الدلالات. في بعض وحدات الذكاء الاصطناعي، أرى إشارة إلى استخدام Gemini بينما في وحدات أخرى أرى إشارة إلى Gemini-Pro. هل تشير هذه إلى نماذج مختلفة (Gemini Nano، Pro، و Ultra) أم أنها تشير إلى نفس نموذج اللغة الكبير (LLM)؟ إذا كان الأمر كذلك، فإلى ماذا يشير Gemini نفسه، وهل يهم إذا كان لدى المرء اشتراك مدفوع أو مجاني في Gemini؟

إعجاب واحد (1)

هناك نماذج مختلفة من Gemini مثل تلك التي أشرت إليها. اعتمادًا على النموذج الذي لديك (على الأرجح Pro لأنه مجاني حاليًا)، ستقوم فقط بتوصيل مفتاح API في الإعداد ذي الصلة. الإعداد مخصص لأي نموذج Gemini لديك.

هذا يعتمد عليك وعلى كيفية رغبتك في استخدام Gemini، ولكن يجب أن يعمل أي منهما.

المزيد حول هذا هنا

إعجاب واحد (1)

هل هناك طريقة يمكنني من خلالها حقن شيء ما في الموجه الأولي إلى LLM أو معالجة التضمينات قبل تمريرها إلى البحث العادي؟

أحاول تعزيز (أو ربما فصل) استجابات الموظفين (أكثر سلطة) عن استجابات المجتمع.

إعجابَين (2)

حاليًا، لا ندعم أي حقن موجه مخصص لـ LLM ضمن بحث الذكاء الاصطناعي، على الرغم من أن هذا قد يكون شيئًا يمكن إضافته في المستقبل.

أوصي بتقديم طلب #ميزة!

إعجابَين (2)

بدأت للتو في تجربة البحث بالذكاء الاصطناعي، وأعجبني ذلك حتى الآن. لا أجد سببًا لعدم استخدامه دائمًا. هل هناك طريقة لعرض نتائج الذكاء الاصطناعي فقط (غير استخدام CSS لإخفاء .fps-result وليس .ai-result)؟

هل يمكنك أيضًا توضيح مكان العثور على البحث السريع؟

[quote=“Discourse، منشور:1، موضوع:282420”]
هل أرى خيار الذكاء الاصطناعي من البحث السريع؟

  • يقوم خيار البحث السريع بالذكاء الاصطناعي بأداء البحث بسرعة أكبر عن طريق تخطي إنشاء المنشور الافتراضي. أحيانًا يكون هذا الخيار أسرع ويقدم نتائج أكثر صلة، وأحيانًا يكون أقل فاعلية.[/quote]
إعجاب واحد (1)

مرحباً، لقد كان ذلك متاحًا مؤقتًا حصريًا على Meta كتجربة. لقد أزلته من OP - شكرًا لك على الإشارة إلى هذا

هل يمكننا الاستمرار في استخدام البحث بالذكاء الاصطناعي من Discourse - AI Search، بينما نستخدم حاليًا Discourse Algolia Search للبحث التلقائي في الرأس؟

تم تقسيم منشور إلى موضوع جديد: عدم رؤية لوحة تفضيلات المستخدم لـ Discourse AI