يبدو جيدًا جدًا في ذلك:
هناك العديد من الشركات! ![]()
سخيف للغاية في رأيي
هل يجب علينا رد أموال للبشرية جمعاء لتطور لغاتها الجميلة؟
لكنني أبتعد عن الموضوع.
لا أختلف معك، لكنني أشك في أن العديد من الدعاوى القضائية تعتبر سخيفة للغاية من قبل المدعى عليهم ولكنها مكلفة رغم ذلك.
إذا كان للسؤال والإجابة اللذين تم فحصهما بواسطة إنسان (على سبيل المثال، موضوع تم حله في Discourse) قيمة اقتصادية كبيانات تدريب، فلا يبدو من غير المعقول الرغبة في الحصول على أموال مقابل ذلك. هناك حاجة للبيانات، لذا سيكون سيناريو مربح للجانبين.
هناك مسابقتان للكتابة على الأقل يكون هدفهما الكتابة بأسلوب مؤلف معين. (بولفر-ليتون وهمنغواي)
لكنني أستطيع أن أتخيل أن طلب الذكاء الاصطناعي لكتابة رواية بأسلوب مؤلف معروف قد يثير بعض الاعتراضات لدى ذلك المؤلف أو ورثته، حيث يمكن اعتبار الأسلوب المميز “ملكية فكرية”، أو على الأقل قد يكون هناك محامٍ مستعد للمطالبة بذلك في المحكمة.
هل لدى أي شخص الكثير من الضجة من المستخدمين المتحمسين لاستخدام روبوت الدردشة Discourse داخل منتدياتهم؟ لقد رأيت كل هذه الأشياء المتعلقة بروبوتات الدردشة وأستخدم ChatGPT و Perplexity و Claude و Bard وما إلى ذلك كل يوم. لكنني اعتقدت أن المنتديات كانت مساحة آمنة من كل ذلك. كتبت مقالًا عن ذلك بالأمس أعتقد أن تشبع الذكاء الاصطناعي سيحيي منصة الويب القديمة هذه (منتديات الويب)
أنا فضولي حقًا ما إذا كان مستخدمو المنتديات يرغبون في روبوتات الدردشة والذكاء الاصطناعي عندما يزورون منتديات المناقشة التي تعمل بنظام Discourse وغيرها. إذا كان الأمر كذلك، فسيتعين علي حقًا إعادة النظر في فكرتي عن المنتديات وحتى التفكير في إضافة مثل هذه. يبدو هذا مشروعًا كبيرًا، وربما يستغرق وقتًا طويلاً. كالعادة، أقدر كل ما تفعلونه. أحاول التعرف على الطلب الذي أنتج هذا حتى أكون على اطلاع دائم بما يحدث.
أنا أتطلع إلى استخدامه في منتدى دعم فني للمساعدة في الإجابة على الأسئلة السهلة/المتكررة بسرعة عندما يكون الموظفون مشغولين وخارج ساعات العمل. أعتقد أنه سيكون رائعًا في هذا المجال.
نعم، مؤخرًا فتحت نافذة دردشة مع دعم Hostinger. كان روبوت دردشة يعمل بالذكاء الاصطناعي. وكان روبوت الدردشة فعالًا جدًا لدرجة أنه أخبرني عن خيار استرداد لم أكن لأعرف عنه أبدًا وأرسل لي رابطًا لسياسة الاسترداد! هههه
لقد فهم ما كنت أسأله ولم يسألني عما إذا كنت قد جربت بالفعل 10 أشياء أساسية. لذا نعم، يمكنني أن أرى مع حالات الدعم، أنه سيكون مفيدًا.
آمل أن يتم حفظ ذلك بعد ذلك في المنتديات، حتى يتمكن الآخرون من رؤيته أو حتى إضافة مناقشة بدلاً من استبدالها.
هل سيكون هذا هو الحال أيضاً مع شخص دعم واسع المعرفة لديه خبرة في استخدام البرامج التي يقدمون الدعم لها؟
بالتأكيد لا. لا يوجد شيء اسمه خيار مثالي للجميع.
يمكن للنماذج اللغوية الكبيرة (GPTs) أن تتطور. ولكن في الوقت الحالي، هذه خيارات منخفضة المستوى حتى في إجراء العمليات الحسابية البسيطة. الإصدار 3.5 لا يمكنه حتى القيام بالأساسيات بشكل موثوق، أليس كذلك؟ الهلوسة مشكلة كبيرة حقًا عندما يجب أن تكون الحقائق صحيحة، أو قريبة من الصحة.
اللغات الأخرى غير الإنجليزية صعبة. بالنسبة لعدد قليل من اللغات الضخمة، ستعمل بشكل جيد، ولكن بالنسبة لي، ولكل من يتحدث لغة أقل شيوعًا، وخاصة إذا كان هيكلها لا يستخدم حروف الجر، فلن تكون الترجمات ممتازة أبدًا.
سيقوم نموذج GPT بالترجمة أولاً إلى اللغة الإنجليزية، وسيغير المطالبة. ثم سيتم ترجمة الإجابة مرة أخرى من اللغة الإنجليزية، وسيقوم نموذج GPT بإجراء تغييرات أخرى وجولة هلوسة. سيكون المنتج النهائي بعيدًا عما طُلب، وحتى عما كان نموذج GPT يقدمه في البداية.
ولأن التدريب يعتمد على فكرة أنه لا يمكن لملايين الذباب أن يكونوا مخطئين وأن الكمية تفوق الجودة، فإن كمية المعلومات المضللة والمعلومات الخاطئة أكثر من مجرد ضخمة. وحتى في هذا الموقف، سيكون هناك المزيد من الخيال، بسبب الهلوسة.
بالطبع، الأمر ليس بهذه السلبية. أنا أستخدم حلاً للمبتدئين. ولكن إذا كان هناك مال لإنفاقه، يمكن للمرء إجراء تدريب خاص به، وسيتغير الملعب بشكل كبير.
ومع ذلك، أؤكد: يعمل نموذج GPT بشكل أفضل عند التحليل أو القيام بشيء لا يحتوي على الكثير من الاختلافات. أو إذا كان بإمكانه إنشاء شيء “جديد” تمامًا خيالي. ولكن المنطقة الوسطى الواسعة حيث يجب على نموذج GPT تقديم الحقائق والمعلومات الموثوقة… ليس كثيرًا.
أنا أستخدم GPT3.5 من OpenAI كثيرًا كل يوم كـ… محرك بحث مع ستيرويدات. ولست سعيدًا جدًا. يجب علي التحقق، وإعادة التحقق، وإعادة الكتابة كثيرًا، لكنني لا أنكر أن نموذج GPT لا يزال يوفر وقتي عند إنشاء نصوص بكميات كبيرة.
كانت هناك دراسة مثيرة للاهتمام حول نسخة من هذا السؤال نُشرت مؤخرًا:
https://www.nature.com/articles/s41598-024-61221-0
عواقب الذكاء الاصطناعي التوليدي على مجتمعات المعرفة عبر الإنترنت
تُحدث تقنيات الذكاء الاصطناعي التوليدي، وخاصة نماذج اللغة الكبيرة (LLMs) مثل ChatGPT، ثورة في اكتساب المعلومات وإنتاج المحتوى عبر مجموعة متنوعة من المجالات. تتمتع هذه التقنيات بإمكانات كبيرة للتأثير على المشاركة وإنتاج المحتوى في مجتمعات المعرفة عبر الإنترنت. نقدم دليلًا أوليًا على ذلك، من خلال تحليل البيانات من مجتمعات Stack Overflow و Reddit للمطورين بين أكتوبر 2021 ومارس 2023، وتوثيق تأثير ChatGPT على نشاط المستخدم في الأولى. نلاحظ انخفاضًا كبيرًا في كل من زيارات الموقع وحجم الأسئلة في Stack Overflow، خاصة حول الموضوعات التي يتفوق فيها ChatGPT. في المقابل، لا يُظهر النشاط في مجتمعات Reddit أي دليل على الانخفاض، مما يشير إلى أهمية النسيج الاجتماعي كحاجز ضد التأثيرات المسببة لتدهور المجتمع لنماذج اللغة الكبيرة. أخيرًا، وُجد أن الانخفاض في المشاركة على Stack Overflow يتركز بين المستخدمين الجدد، مما يشير إلى أن المستخدمين الأقل خبرة والأقل اندماجًا اجتماعيًا هم الأكثر عرضة للخروج.
هذا يصف سلوكي إلى حد كبير. ما زلت أطرح الأسئلة وأجيب عليها في Meta - لدي اتصال اجتماعي هنا. ولكن لتعلم لغات وأطر عمل البرمجة الجديدة، أعتمد على مزيج من ChatGPT والتوثيق عبر الإنترنت.
ربما الشيء الرئيسي الذي يميز نماذج اللغة الكبيرة هو توفرها. أفضل الحصول على التوجيه من خبراء بشريين، لكن لا أحد لديه ما يكفي من الوقت أو الصبر للإجابة على جميع أسئلتي في لحظة.
أحد العيوب الكبيرة للتعلم من خلال نماذج اللغة الكبيرة على عكس التعلم في منتدى عام هو أن المعلومات التي يتم إنشاؤها خاصة. نادرًا ما يكون تعلم شيء ما عبر نموذج لغة كبير مجرد مسألة طرح سؤال واحد عليه والحصول على الإجابة الصحيحة. إنه أشبه بطرح سؤال عليه، ومحاولة تطبيق الإجابة، وقراءة بعض الوثائق لمعرفة سبب عدم نجاح الإجابة، والعودة إلى نموذج اللغة الكبير بسؤال متابعة… في النهاية يتم إنشاء قدر من المعرفة.
لا أعتقد أن أحدًا يريد قراءة سجلات الدردشة الخاصة بالآخرين، ولكن ربما يمكن للمنتديات التقنية الترويج لفكرة نشر المعرفة التي استخلصها الأشخاص من نماذج اللغة الكبيرة.
عيب آخر واضح للتعلم عبر نماذج اللغة الكبيرة هو فقدان الاتصال الاجتماعي، والانتباه البشري كدافع للتعلم، وفرص العمل، وما إلى ذلك. هذا أمر مهم جدًا من وجهة نظري.
التوفر هو السبب الرئيسي الذي يدفعنا لبناء روبوت دعم.
أنا متحمس لهذا التقنية بنفس القدر الذي أشعر به بالقلق بشأن مستقبل الويب.
الشركات بما في ذلك جوجل (وبينج) تستخدم الآن البيانات التي تم جمعها من خلال زحفها على موقعك لتقديم إجابات مدعومة بالذكاء الاصطناعي في أعلى صفحة البحث الخاصة بها.
هذا لا يدفع نتائج البحث إلى أسفل الصفحة ويقلل من أهمية المصادر فحسب، بل يخلق أيضًا ديناميكية مقلقة أخرى: هذا سيشجع مزودي البحث على السعي لمزيد من التكامل مع بعض مصادر البيانات الكبيرة المختارة.
على سبيل المثال، يُقال إن جوجل دخلت في صفقة مع ريديت للوصول إلى واجهة برمجة التطبيقات الخاصة بهم.
في رأيي المتواضع، النتيجة المترتبة على ذلك هي أنها ستعزز المحتوى على المنصات الأكبر وتضر بالمواقع الأصغر.
هناك حاليًا قدر كبير من الجدل حول جودة النتائج التي تحصل عليها جوجل من ميزة “نظرة عامة على الذكاء الاصطناعي” وبعض الأمثلة المضحكة وغير المضحكة التي يمكن القول إنها محرجة جدًا للشركة. أنا متأكد من أن التكنولوجيا ستتحسن على الرغم من ذلك.
ربما تكون المنتديات الصغيرة في وضع أفضل لتحسين استخدامها المحلي للذكاء الاصطناعي حيث يمكنها التخصص. جوجل تكافح لتقديم خدمة عامة جدًا.
الوقت كفيل بإثبات ذلك، لكن المعركة لجذب الانتباه لا تزال مستمرة.
كانت هذه إحدى أفكاري. كنت أفكر في ضبط نموذج شبيه بـ BERT لتصنيف المشاركات تلقائيًا إلى فئات، أو إضافة علامات تلقائيًا. اكتشاف المشاركات “السامة” سيكون حالة استخدام أخرى.
لشيء مثل Discourse، هناك على الأرجح المزيد الذي يمكنك القيام به بالذكاء الاصطناعي مما يمكنني القيام به في حياتي. على الرغم من أنه بمجرد أن يساعد الذكاء الاصطناعي في تنفيذه، ربما يمكن القيام به في غضون العمر…
بصراحة، أعتقد أن هذه القضية أساسية لجميع المواضيع المتعلقة بالذكاء الاصطناعي، وأنا، بسذاجتي، أعتقد أنه يمكن حل هذا (فقط) بواسطة نموذج مملوك للمجتمع.
نموذج تم تدريبه بالبيانات التي نقدمها وننظمها طواعية، ببساطة عن طريق الالتزام بالتراخيص المقدمة. نموذج تم تدريبه أخلاقيًا، ويتم حسابه على جميع أجهزتنا.
الحوسبة من نظير إلى نظير للبيانات لها تقليد طويل، حيث قامت مجالات علمية معينة بذلك لعقود قليلة الآن.
في رأيي المتواضع، لا مفر من ذلك، أو على الأقل حل مماثل، إذا أردنا استخدام الذكاء الاصطناعي وعدم التضحية بمبادئنا على المدى الطويل.
سيكون الإشراف المستند إلى نماذج اللغة الكبيرة (LLM) رائعًا، حيث يمكنك أن تطلب منه تقييم كل منشور وفقًا لمقاييس مختلفة اعتباطية (ذات صلة بالمجتمع) وتنفيذ إجراءات أو عوامل تصفية أو المساعدة.\n\nأرى بداية لبعض هذا هنا ولكن ليس واضحًا بشأن مجموعة الميزات: Discourse AI Features | Discourse - Civilized Discussion
أعتقد أن مجموعة الميزات التي تبحث عنها هي Discourse AI - AI triage
لدينا بعض الخطط لتجديد الصفحة المقصودة بحيث يكون السياق أكثر وضوحًا لجميع ميزات الذكاء الاصطناعي.
كما رأينا على نطاق واسع في فيسبوك، انستغرام، تيك توك، إلخ ![]()
It really depends on what the goal is - take down offensive content, guide the user etc.
One goal that interests me in particular is using an LLM to analyse questions/problems when they are submitted. The goal is not to answer the question, but rather to help the user express their problem in a more constructive way. Too often we see the first reply is “can you please post your error logs” or “what exactly are you trying to do?”. An LLM could catch topics which fall into this category and nudge the user to provide those details, speeding up the whole support process and creating a higher quality topic for future readers.
Early work has been promising, showing about 93-95% accuracy from a dataset of about 60 topics. The inaccuracies aren’t even that bad - half of the answers where our assessment disagrees with that of the LLM are very dubious to begin with.
My main finding, as obvious as it may be, is: the more you reduce the scope of your query to the LLM, the more accurate that answer will be.