إذا قمت بتغيير نموذج اللغة الكبيرة (LLM)، فهل تُترجم جميع المنشورات من جديد؟
كنت أستخدم نموذجًا مستضافًا على منصة Groq، وكان قد أكمل حوالي 95٪ من الترجمة عندما بدأت في مواجهة أخطاء. بعد التحقيق، أدركت أن منصة Groq قد ألغت دعم النموذج الذي كنت أستخدمه. لذا قمت بإعداد نموذج جديد على Groq ثم قمت بتحديث معلمات النموذج في نظام Discourse.
ألاحظ أن نظام Discourse يستخدم الآن ملايين الرموز (tokens) يوميًا مع نموذج الترجمة المحدّث، لكن شريط التقدم في صفحة حالة الترجمات لا يتقدم على الإطلاق (لا يزال عالقًا عند 95٪).
لذلك أحاول فهم ما يحدث عند تغيير معلمات نموذج اللغة الكبيرة (LLM). هل يبدأ النظام عملية الترجمة من الصفر؟ وإذا كان الأمر كذلك، فهل توجد أي طريقة لمنع ذلك والعودة إلى حيث توقفنا؟
يعتمد الأمر، على سبيل المثال، إذا قمت بالترجمة باستخدام نموذج من Gemini ثم انتقلت إلى نموذج آخر، فستقوم بإنشاء ذاكرة تخزين مؤقت جديدة للكلمات. في تجربتي، فضلت الاحتفاظ بثلاثة مسارات، اثنان منهما يستخدمان نفس النموذج، وقمت الآن بتفعيل نموذج Gemini Flash Lite للمحتوى الجديد، وحتى الآن لم تواجه أي مشاكل.
كل يوم يستهلك نموذج اللغة الكبير ملايين الرموز للترجمة (حيث يصل إلى الحد اليومي لواجهة برمجة التطبيقات)، لكن لا توجد أي تقدم في إحصائيات الترجمة (0 ترجمة متزايدة). انظر لقطات الشاشة.
حسنًا، لقد قمت بتفعيل تصحيح ترجمة الذكاء الاصطناعي من خلال وحدة تحكم Rails عبر الأمر SiteSettings.ai_translation_verbose_logs = true، وعلى مدار اليومين الماضيين أرى هذا في صفحة سجلات الأخطاء /logs.
DiscourseAi::Translation: فشل في ترجمة الموضوع رقم 5898 إلى zh_TW: {“error”:{“message”:"تم الوصول إلى حد معدل الاستخدام لنموذج openai/gpt-oss-120b في المنظمة org_01kccx1baz5sXXX ضمن فئة الخدمة on_demand من حيث الرموز يوميًا (TPD): الحد 200000، تم استخدام 193366، والطلب 7514. يرجى المحاولة مرة أخرى خلال 6 دقائق و20.16 ثانية.
الموضوع نفسه يستمر في استهلاك كل حد الرموز اليومي. لا أستطيع فهم سبب وقوع موضوع واحد في حلقة مفرغة؟