بما أن هذا الموضوع عاد للظهور مرة أخرى:
-
أنا أستخدمه، ولكني أراقب التكاليف عن كثب. أكبر مخاوفي هو الاستخدام الجامح للرموز (tokens)، على الأقل حتى أتمكن من تشغيل الأشياء لفترة كافية لاكتساب شعور داخلي بما يجب أن يكون عليه متوسط استخدامي للرموز. القدرة على تحديد حدود التكلفة جيدة، لكنني لن أشعر بالراحة شخصيًا حتى أعرف ما هو الاستخدام المجتمعي الطبيعي، وهذا يستغرق وقتًا.
-
قضايا ثقة المستخدم ضخمة. لا يهم ما هي الرسالة التي أعدها أو ما أقوله بصفتي مسؤول الموقع - هناك تصور راسخ بأن نماذج اللغة الكبيرة (LLMs) تستخدم المحتوى الذي ينشئه المستخدمون للتدريب وأن أي استخدام من قبل نظام Discourse يعني “بيع” بيانات المستخدم دون “إذن”. هذه مشكلة، في رأيي، نظامية بين العديد من المعلقين ومن المستحيل التخلص منها، لأن الناس “يعرفون” ما تفعله شركات الذكاء الاصطناعي “حقًا”. تمكين الفرز القائم على الذكاء الاصطناعي في منتدى والقول بأنك تفعل ذلك يعني مواجهة فيضان محتمل من شكاوى “أنا لا أوافق على إرسال بياناتي إلى شركة تقنية ذكاء اصطناعي ليجني منها المال بكلماتي!”. لا يهتم الجميع بهذا النوع من الأشياء، لكن المهتمين به غاضبون وفي نفس الوقت غير مهتمين تمامًا بالمناقشة. ليس لدي إجابة جيدة هنا.
-
أشعر بعدم ارتياح إلى حد ما لوضع حالة اكتشاف البريد العشوائي في منتدى بلدي على كيف تشعر نماذج عشرات الشركات المختلفة في أي وقت معين. لنكن صريحين هنا: اكتشاف البريد العشوائي بالذكاء الاصطناعي، والفرز بالذكاء الاصطناعي، وجميع ميزات الذكاء الاصطناعي الأخرى هي في الأساس قولنا “مرحبًا، دعنا نجعل هذه مشكلة الذكاء الاصطناعي” ثم نحاول ترميز ما نريد أن يفعله عبر هندسة الأوامر (prompt engineering). إنها تعمل، لكن العملية غير حتمية بشكل مزعج. عليك في الأساس أن تأمل فقط أن تستمر الأمور في العمل كما هي. أنا لا أحب هذا. أنا لا أحب هذا على الإطلاق، وهذا يسبب لي القلق. أحب أن تكون أدواتي حتمية بشكل صحيح. نماذج اللغة الكبيرة هي عكس الحتمية تمامًا، ونحن نربط بعض وظائف المنتدى بما يقرره OpenAI والشركات الأخرى.
ومع ذلك، أنا أستخدم كل من مكافحة البريد العشوائي بالذكاء الاصطناعي والفرز في المنتدى بالذكاء الاصطناعي. إنه مفيد. لكنني أحاول أن أبقى مدركًا لحقيقة أنه يجب مراقبة هذه الحلول باستمرار لضمان فعاليتها.