على حد علمي، يتم إلحاق هذه التعليمات بـ “system prompt” بدلاً من استبداله، مما يجعل الموجه أطول ويحتوي على لغات مختلطة…
لكن اجتياز الاختبار لا يعني عدم وجود مشكلة. (للعلم، لم أقم بإعداد نموذج اللغة الكبير (LLM) بالكامل بعد؛ لقد جربت خدمة Gemini المجانية ولكنني حصلت على 429، لذا أحاول معرفة كيفية دمج llama.cpp في Discourse الآن.)