إذا منحت أعضاء معينين إمكانية الوصول إلى الذكاء الاصطناعي، فما الذي يمنعهم من استخدامه طوال الوقت في عملهم وما إلى ذلك، هل هناك أي طريقة للحد من عدد الرموز التي يمكنهم استخدامها يوميًا أو أسبوعيًا وما إلى ذلك؟
لا توجد مثل هذه القيود عند استخدام Discourse AI، لذا فإن الإجابة هي لا شيء على الإطلاق.
الحل الآخر، Chatbot، لديه حدود أسبوعية لعدد الطلبات التي يمكن إجراؤها.
لذلك، عليك اختيار الأنسب لك. أستخدم كليهما. Chatbot للاستخدام العام داخل منتداي [1] و DAI مقيد بناءً على مجموعة وأغراض (مضبوطة) باستخدام شخصيات. لذلك، أستغل أفضل جوانب كليهما، لأن هذين الأمرين يتداخلان جزئيًا فقط.
عام يعني نوع الأسئلة، وإلا فهو مضبوط بطريقة أكثر تخصصًا ↩︎
نقل هذا إلى ميزة، ننوي إضافة نظام حصص، يستمر في الظهور
أفكر في مجرد إضافة محددات مجموعات مع عدد المدخلات/المخرجات والمدة لكل نموذج لغوي كبير، بحيث يمكنك إضافة حصص اختيارية.
أحتاج الآن إلى حدود معدل لكل مستخدم (وليس لكل مجموعة)، لذا أحاول إنشاء حل مؤقت خاص بي. سيكون تحديد عدد المطالبات بدلاً من الرموز كافياً. أفكر في استخدام خطاف ويب (webhook) عند حدث post_event للإشارة إلى ما إذا كانت رسالة خاصة (PM) وأن المستخدم ينشر إلى روبوت، ثم زيادة حقل مخصص ‘ai_query_count’ لدى المستخدم. أعتقد أن هذا الجزء سيعمل.
ثم ماذا أفعل إذا تجاوز العدد الحد المسموح به؟ لقد جربت بعض جافا سكريبت في قسم الإدارة > تخصيص > الرأس (admin > customize > head) الذي يقرأ عدد المستخدمين ويحاول تعطيل زر الرد إذا تجاوز العدد الحد المسموح به، لكنني لم أتمكن من العثور على مصطلح محدد (selector) للحصول على الزر.
أو ربما هناك نهج أفضل. أي أفكار مرحب بها!
هما في الواقع نفس الشيء، أنت فقط تنشئ مجموعة من مستخدم واحد.
هذا يجب أن يتم هذا الأسبوع ويحل المشكلة:
أتفهم أن الحصص لكل مجموعة جيدة لإدارة الميزانية، ولكن ما الذي يمنع شخصًا واحدًا من الاستيلاء على حصة المجموعة بأكملها في بداية الفترة الزمنية؟ تعديل: وربما الاستيلاء عليها لعمله الخاص غير المرتبط، كما سأل صاحب الموضوع الأصلي؟
لدينا 3000 عضو. لذا هل ننشئ 3000 مجموعة؟ ألن يؤدي ذلك إلى تدمير /g؟
أنا مرتبك بعض الشيء بشأن هذا السؤال، تم تعريف الحصص بواسطة المجموعة الآن وتطبيقها لكل مستخدم
إذا سُمح للمجموعة بـ 1000 رمز، فهذا يعني أنه لا يُسمح لأي مستخدم فردي بأكثر من 1000 رمز
لا تتم مشاركة الحصة بين المستخدمين، وليس ضد إضافة مفهوم الحصة المطلقة إذا احتجنا إليها لاحقًا
أوه. إذن لقد أسأت الفهم تمامًا. الميزة تقول:
تحديد حدود الرموز والاستخدام لكل مجموعة مع فترات زمنية قابلة للتكوين
بالنسبة لي، “الحدود لكل مجموعة” تبدو وكأن المجموعة ككل لديها حد.
لذا هذا هو بالضبط ما أبحث عنه - سأنتظر الميزة الجديدة.
سأقوم بتعيين هذه التهيئة لموظف متدرب يوم الأربعاء القادم على موقع Discourse مستضاف ذاتيًا. هل أحتاج إلى إخباره بسحب الفرع الرئيسي من GitHub؟ أو، إذا أضاف هذا السطر في app.yml، فهل هذا كافٍ؟
hooks:
after_code:
- exec:
cd: $home/plugins
cmd:
- git clone https://github.com/discourse/docker_manager.git
...
...
- git clone https://github.com/discourse/discourse-ai.git
أريد السماح لميزات المكون الإضافي Discourse AI بأن تكون متاحة فقط للمستخدمين المسجلين. هل هذا هو السلوك الافتراضي؟
لا يبدو لي أن البحث المعزز بالذكاء الاصطناعي لديه تحكم لكل مجموعة؟؟؟
بالنسبة لروبوت الذكاء الاصطناعي، أفكر في تعيينه على الثقة 0 وتحديد حد للرموز لكل مجموعة، وزيادته مع نمو الثقة. هل هذه استراتيجية جيدة؟
تم دمج هذا. أحتاج فقط إلى قضاء بعض الوقت في توثيقه.
@sam شكراً لعملك. قام المتدرب بتعيين حصص لكل مستوى ثقة اليوم.
لم يختبروه بالكامل بعد.
عند الوصول إلى الحد اليومي للمجموعة، هل يتلقى المستخدم رسالة؟ هل يمكن تخصيص هذه الرسالة؟
أريد أن يكون الذكاء الاصطناعي مفيدًا، ولكنه يحمينا من الإساءة. إذا أراد شخص ما استخدام المزيد من البحث بالذكاء الاصطناعي، فأريد أن أرسل له ملاحظة بأنه يمكنه الاتصال بشخص بشري لزيادة الحد. يمكن للموظفين بعد ذلك نقله إلى مجموعة معدة مسبقًا يدويًا.
في مثالك، لاحظت أنك تستخدم amazon nova pro v1. قام المتدرب بإعداد تطبيقنا باستخدام OpenAI gpt-o4، ربما فقط بسبب الاعتراف بالعلامة التجارية.
لا يزال المتدرب يحاول معرفة فعالية النماذج المختلفة مقابل تكلفتها. أي نصيحة من أي شخص في المنتدى ستكون رائعة.
نعم، يحدث هذا الآن
بشكل طفيف جدًا، نستخدم سلسلة نصية مترجمة لذا يمكنك تعديل الترجمة.
إغلاق هذا الموضوع لأنه مكتمل، لا تتردد في طرح أسئلة جديدة حول الذكاء الاصطناعي!

