لدينا العديد من المواضيع التي تتجاوز أطوال السياق النموذجية (لنقل 128 ألفًا) وتحدث أشياء سيئة. هل فكرت في التلخيص بناءً على المنشورات الأكثر إعجابًا فقط؟ ابدأ بالمنشور الأكثر إعجابًا، وأضف المنشور التالي الأكثر إعجابًا، واستمر حتى يتم الوصول إلى طول السياق المستهدف، ثم مرر النص الناتج إلى GPT؟ بالنسبة لمنتدانا على الأقل، تعد “الإعجابات” مؤشرًا جيدًا جدًا على “الأكثر صلة”.
هذه هي الطريقة التي تعمل بها في المواضيع الطويلة، نستخدم أفضل 50 منشورًا تم الإعجاب بها في الموضوع.
حسنًا، يبدو أن التلخيص يتوقف عند المواضيع الطويلة، لذلك افترضت أن الأمر يتعلق بطول المحتوى. هل لديك أي نصائح لتصحيح هذا؟ أنا أستخدم gpt-o4. لا أرى طريقة لعرض طلبات API محددة في لوحة تحكم OpenAI الخاصة بي.
يمكنك رؤية الطلبات في جدول ai_api_audit_logs.
فيما يتعلق بالتعليق في منتصف التلخيص، كانت لدينا بعض الأخطاء في الواجهة الأمامية في هذا الصدد مؤخرًا، لذا يرجى تحديث موقعك إلى أحدث إصدار.
لقد وجدت هذا في سجلات الأخطاء:
Request too large for gpt-4o in organization org-xxxxxxxxxxxxxxxxx on tokens per min (TPM): Limit 30000, Requested 45906.
لزيادة حدودي، أعتقد أنه يجب عليّ إنفاق 50 دولارًا فعليًا (وليس مجرد تخصيصها في الميزانية) والانتظار شهرًا تقريبًا بالإضافة إلى 7 أيام:
حتى الآن، لم أنفق سوى 2.00 دولار ولم يتم استحقاق أي دفعة بعد. لا أرى أيضًا كيفية تحديد عدد الرموز (tokens) في Discourse. لذلك، لا أرى كيفية استخدام التلخيص للمواضيع الطويلة في هذه المرحلة.
أوه، إذن المشكلة هي أن لديك حساب OpenAI مقيد يحدك من الرموز لكل دقيقة، مما يؤثر على استخدام التلخيص بالذكاء الاصطناعي على Discourse.
هذا أمر محبط للغاية. سأبحث عن مزودين بديلين، مثل Anthropic أو AWS أو Azure أو Google Cloud أو حتى مزودي واجهة برمجة تطبيقات Llama. أعتقد أن هناك مزودين لديهم طبقة مجانية ستمنحك حدًا أعلى من ذلك.
لقد تحولت من استخدام 4o إلى 4o-mini للتلخيص، ويبدو أن هذا يعمل على أطول مواضيعي. يبدو أن OpenAI لديها حدود مختلفة لنماذج GPT المختلفة.
