العنوان يقول كل شيء - أنا فقط أتساءل عما إذا كانت هناك خطة لدعم هذا النموذج، وإذا كان الأمر كذلك، فهل هناك تقدير تقريبي لموعد تنفيذه؟
هذا تحسن هائل لأي شخص يستخدم حاليًا GPT 3.5 Turbo لأنه أذكى وأرخص بأكثر من 60٪.
العنوان يقول كل شيء - أنا فقط أتساءل عما إذا كانت هناك خطة لدعم هذا النموذج، وإذا كان الأمر كذلك، فهل هناك تقدير تقريبي لموعد تنفيذه؟
هذا تحسن هائل لأي شخص يستخدم حاليًا GPT 3.5 Turbo لأنه أذكى وأرخص بأكثر من 60٪.
إنه يعمل بالفعل مع Discourse AI plugin، تحتاج فقط إلى التأكد من استخدام gpt-4o-mini كاسم في تكوين LLM الخاص بك:
حسنًا، هذا محرج. شكرًا أيها المدير ![]()
![]()
ربما لم ألعب بها بما فيه الكفاية - ملاحظة مدونة
سنرى مدى ذكائه أو مدى تحسنه في الهلوسة
أتذكر كم كان هناك ضجة عندما ظهر GPT-4o والآن هناك الكثير من الشكاوى.
لكن من الجيد تجربته.
بعيدًا عن الموضوع قليلاً، لكنني لا أفهم تمامًا لماذا لدينا مكانان لإخبار النموذج وواجهة برمجة التطبيقات، الإعدادات وقسم LLM؟
هذه نقطة جيدة. أظن أن مشاكل الهلوسة لم تتحسن مع هذا النموذج، ومع ذلك تمكنت من التخفيف من حدتها إلى حد كبير عن طريق وضع مجموعة من القيود في جميع أنحاء موجه النظام - على الرغم من أن لذلك عواقبه الخاصة بالطبع.
هذا منطقي فقط للإعداد اليدوي لـ LLM. لذلك أجد نفسي أطرح نفس السؤال ![]()
الفكرة هي أنك تقوم بإعداد نموذج اللغة الكبير الخاص بك أولاً ثم تختار نموذج اللغة الكبير هذا لميزة Discourse AI التي تختارها، ولهذا السبب هما حاليًا في مكانين منفصلين.
لقد أجرينا بعض المناقشات الداخلية بشأن ربما جعل هذه العملية كلها في مكان واحد، أي - فور إعداد نموذج اللغة الكبير الخاص بك، يمكنك أيضًا تمكينه لميزات الذكاء الاصطناعي المحددة، مثلما لدينا لروبوت الذكاء الاصطناعي.