StevePlex
(Steve King)
9 ديسمبر 2024، 4:00م
1
لدي العديد من نماذج LLM مفتوحة المصدر تعمل على خدمة Hugging Face Inference Endpoint (بشكل أساسي AWS)..
لجميع النماذج التي اختبرتها (llama، phi، gemma، إلخ).. أستطيع الاتصال من صفحة إعدادات Discourse LLM، لكن الاستدلال لا يعمل. إليك الخطأ:
“محاولة الاتصال بالنموذج أعادت هذا الخطأ: فشل في إلغاء تسلسل نص JSON إلى النوع المستهدف: حقل مفقود inputs في السطر 1 العمود 163”
ماذا أفعل بشكل خاطئ !؟ شكراً جزيلاً..
عرض من Hugging Face:
عرض من Discourse:
Falco
(Falco)
9 ديسمبر 2024، 4:07م
2
لقد مر أكثر من عام منذ آخر مرة جربت فيها واجهة برمجة التطبيقات الخاصة بهم. هل هي متوافقة مع OpenAI حاليًا؟ إذا كان الأمر كذلك، يمكنك محاولة تعيين Provider إلى OpenAI والإشارة إلى نقطة النهاية الخاصة بهم.
StevePlex
(Steve King)
9 ديسمبر 2024، 8:51م
3
لقد جربت معظم مقدمي الخدمة المتاحين على شاشة إعداد Discourse LLM، بما في ذلك OpenAI..
إما أنهم يعطون خطأ “فشل في إلغاء تسلسل نص JSON إلى النوع المستهدف ” أو “خطأ في الخادم الداخلي ”.
لقد جربت أيضًا نموذج OpenAI فعليًا على خدمة نقطة نهاية HF (GPT2! ولكن هذا لم ينجح. .. نفس النوع من الأخطاء.