لماذا تم اختيار الذكاء الاصطناعي الخارجي بدلاً من نظام داخلي؟

فيما يتعلق باستخدام الموارد الخارجية، يمكنك تشغيل نموذج اللغة الكبير (LLM) الخاص بك محليًا إذا أردت؟:

ولكن هل قمت بذلك لمشروع؟

يتطلب منك امتلاك أو استئجار أجهزة قوية بشكل خاص!

جرب نماذج اللغة الأصغر (التي قد تفكر في استضافتها) بنفسك وانظر مدى إعجابك بها:

قد تختلف تجربتك، ولكن في رأيي ستحتاج إلى التفكير في استضافة نموذج يحتوي على 70 مليار معامل على الأقل، وسيكون ذلك مكلفًا للغاية للاستضافة الذاتية.

للمرجع، يُقال إن GPT 3.5 نموذج يحتوي على 175 مليار معامل و GPT 4 يحتوي على ما يقرب من 2 تريليون (كما يقولون) :sweat_smile:

لقد كتبت هذه الإضافة:

وتحتوي على ميزة وضع علامات الذكاء الاصطناعي. في تجربتي، تحتاج إلى GPT 4 Turbo لجعله يعمل بشكل جيد (وهو يعمل بشكل جيد حقًا حينها!)

إذا كنت تنوي استضافة شيء قوي مثل هذه النماذج بنفسك، فستحتاج إلى جيوب عميقة جدًا.

هذا هو السبب في أن استخدام واجهة برمجة تطبيقات نموذج لغة كبير خارجي لا يزال خيارًا جذابًا للدفع حسب الاستخدام، خاصة لأنك تدفع فقط مقابل المكالمات التي تجريها، وليس مقابل بنية تحتية باهظة الثمن تقضي أي وقت في العمل دون استخدام.

بالطبع، إذا كان الخصوصية مصدر قلق رئيسي وكافٍ، فقد يغير ذلك الحسابات.

5 إعجابات