هل ترغب في المساعدة بلغة برمجة معينة أو تنسيق رسائل أكثر تقدمًا؟
تحياتي، {user}!
بينما قد يحل هذا المشكلة، كان بإمكاني أن أسأل الذكاء الاصطناعي بنفسي للحصول على هذا الرد. بينما المشكلة ليست منتشرة بعد، أنا قلق من أننا نفقد شخصية كل فرد في المجتمع. الشيء العظيم في المجتمع هو الأشخاص الموجودون فيه وأفكارهم الفريدة، وأفكارهم، وتجاربهم، وكلماتهم.
فضولي جدًا لمعرفة كيف تتعامل المجتمعات الأخرى مع هذا! يرجى مشاركة أفكاركم!
سياستي هي عدم استخدام الذكاء الاصطناعي لكتابة أو تحرير منشورات المنتدى. شيء مثل: نريد أن نسمع ما لديك لتقوله، وليس ما يقوله الذكاء الاصطناعي. لا بأس في لصق بعض نصوص الذكاء الاصطناعي ثم التعليق على ما كتبه الذكاء الاصطناعي طالما أنك تفصح عن أنه ذكاء اصطناعي فوق محتوى الذكاء الاصطناعي، على سبيل المثال:
“سألت ChatGPT عن ___ وقال ___ . إليك ما أعتقده حول ما كتبه ChatGPT.”
أنا أحرس جودة المحتوى بعناية. أعتقد أن المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي من عام 2025 سيبدو قديماً في غضون 10 سنوات، مثلما لم تعد مؤثرات الأفلام القديمة مقبولة.
إذا كان الناس يطرحون أسئلة ويجيب الذكاء الاصطناعي، فلماذا يذهبون إلى منتدى بدلاً من مجرد سؤال ChatGPT؟ أعتقد أن القيمة الرئيسية في المنتديات في المستقبل هي أنه ستتمكن من الحصول على إجابات من البشر بدلاً من الروبوتات.
هذا هو الاتجاه الذي كنا نميل إليه طالما أن هناك سياقًا وكلمات المستخدم حول محتوى الذكاء الاصطناعي.
لا أريد أن أبحث بعد بضعة أشهر وأجد فقط ردودًا مكتوبة بشكل مثالي بواسطة الذكاء الاصطناعي في جميع منتدياتنا، لذا أحاول استباق الأمر الآن. أرجعوا الأخطاء الإملائية
إليك نقطة يجب الانتباه إليها: قد يؤدي تثبيط مثل هذه الممارسات إلى تنفير المستخدمين الجدد المحتملين. تتمثل إحدى الحلول الممكنة في إنشاء فئة لمثل هذه الأمور ثم السماح لهم بوضع المحتوى هناك. بهذه الطريقة يشعر المستخدم أنه ساهم بشيء ذي قيمة، ويمكن للآخرين الارتباط به إذا لزم الأمر في أجزاء أخرى من المنتدى، ويمكن للمستخدمين غير المهتمين بمنشورات الذكاء الاصطناعي تخطي الفئة وجميع الروابط.
سيظل نشر الذكاء الاصطناعي في منتديات المستخدمين مستمراً. لا أرى أي أعراف لهذا الأمر في السنوات القليلة القادمة؛ على غرار مسألة استخدام الذكاء الاصطناعي في التعليم الرسمي.
ومع ذلك، مع الموجة الجديدة من الذكاء الاصطناعي، ونماذج اللغة الكبيرة (LLMs)، والنماذج الانتشارية (diffusion)، فإن الثابت الوحيد هو التغيير، لذا فإن ردي هذا لا ينبغي اعتباره شيئًا منحوتًا في الحجر أو شيئًا قد أتفق معه في المستقبل.
يعتمد الأمر حقًا، أليس كذلك؟ في المثال أعلاه، سأكون مستاءً من الناشر إذا كانت الإجابة خاطئة بشكل واضح - خاصةً الأخطاء التي قد تؤدي إلى مشاكل أكبر للمستخدم. لا بأس لدي في أن ينشر الأشخاص ردودًا تم إنشاؤها بواسطة الذكاء الاصطناعي إذا كانوا قد خصصوا وقتًا أيضًا للتحقق من مدى ملاءمة المعلومات وصحتها. والأفضل من ذلك إذا وافقوا على أن المحتوى الذي تم إنشاؤه مشابه لما كانوا سيقدمونه أو أفضل منه.
من ناحية أخرى، إذا كنت قد أدخلت شيئًا في نموذج لغوي كبير، ونسخت الإجابة ولصقتها، وتتوقع مني أنا، بصفتي قارئًا لموضوعك، أن أكتشف ما إذا كان هذا المحتوى صحيحًا، فلن أكون سعيدًا. أنت لا تضيع وقتي فقط بتقديم معلومات خاطئة على أنها صحيحة، بل تقلل أيضًا من مصداقية المجتمع بشكل عام - أو على الأقل من مصداقية ردودك المستقبلية.
بالنظر إلى المستقبل، أتوقع أن يبتعد العديد من الأشخاص ذوي النوايا الحسنة عن استخدام النماذج اللغوية الكبيرة في المنتديات خلال السنوات القليلة القادمة، وسيكون الباقون جهات فاعلة سيئة، أو أشخاصًا لا يفهمون المنتديات في المقام الأول. هذا مجرد رأي شخصي، لكنني أستخدم النماذج اللغوية الكبيرة يوميًا لمدة عامين تقريبًا، وأنا أتجه بشكل متزايد نحو المحتوى الذي أنشئه بنفسي. بالأمس أردت كتابة منشور مدونة لم أكن مهتمًا به حقًا. قررت تجربة GPT، ولكن مهما فعلت، فقد بدا دائمًا وكأنه مكتوب بواسطة GPT وكرهت ذلك. لذلك جربت Claude، وعلى الرغم من العمل معه لمدة ساعة، لم يبدُ المحتوى أبدًا وكأنه مكتوب بواسطة شخص حي حقيقي. لذلك بعد حوالي 3 ساعات إجمالاً، مزقت كل شيء وكتبته بنفسي في حوالي ساعة.
النقطة من تلك القصة هي القول - على الأقل بالنسبة لي - أن المحتوى الذي أنشئه بنفسي يثبت أنه مجزٍ أكثر فأكثر بغض النظر عن مدى جودة النماذج. آمل حقًا أن يصل الأشخاص الآخرون الذين يستخدمون النماذج اللغوية الكبيرة إلى تلك المرحلة في العامين أو الثلاثة أعوام القادمة. إذا حدث ذلك، فإن ردود الذكاء الاصطناعي في المنتديات ستأتي فقط من جهات فاعلة سيئة، أو أشخاص لديهم نوايا حسنة لا يعرفون أفضل. في كلتا الحالتين، هذا الوضع يجعل المحتوى أسهل بكثير في التعامل معه: يمكنك حظر الجهات الفاعلة السيئة، وتثقيف أولئك الذين لديهم نوايا حسنة، ووضع سياسة إشرافية مفادها “محتوى الذكاء الاصطناعي محظور، إلا إذا كنت قد استوعبت بوضوح المحتوى الذي تنشره وتوافق تمامًا على أن محتوياته تمثل رأيك وفهمك للمسألة وأن المحتوى يعبر عن رأيك بطريقة قابلة للهضم بنفس القدر أو أكثر مما كنت ستنشئه بنفسك.” أو شيء من هذا القبيل.
أنا بشكل عام قلق قليلاً عندما أرى ردود الذكاء الاصطناعي، وأكثر من ذلك عندما يقوم المستخدم الذي ينشرها إما:\n- بعدم ذكر مصدر الذكاء الاصطناعي\n- بالنسخ واللصق المباشر\n\nلكن أعتقد أن الشيء الذي ليس مقبولاً حقًا هو عندما يتم تمييز المشاركات التي تم إنشاؤها بالكامل بواسطة الذكاء الاصطناعي كحلول. في الواقع، يجب أن يذهب الحل إلى الذكاء الاصطناعي… أو في الواقع، لا يتم تقديمه ببساطة، فقط إعجاب وشكر.\n\n\u003chr /\u003e\n\nبالإضافة إلى ذلك، إذا كان المؤلف الأصلي يريد استجابة من الذكاء الاصطناعي، كان بإمكانه ببساطة أن يسأل ChatGPT. لا يحتاجون إلى شخص للإجابة على السؤال الذي طرحوه على الزملاء البشر بشيء من الذكاء الاصطناعي.
أرى الكثير من الردود الرائعة هنا. في هذا المثال المحدد، أرى الذكاء الاصطناعي مفيدًا لأنه تكتيكي بحت. لذلك، بينما نطرح أسئلة على مجتمعاتنا أو نطلب ردود الأعضاء، ضع في اعتبارك ما هو تكتيكي مقابل “الشعور”. اعتمادًا على هيكل مجتمعك، قد تكون هناك مساحة مخصصة لأسئلة “كيفية”، ومساحة أخرى مخصصة لاتصالات الأقران. معرفة “كيفية” ستكون مكانًا يرحب فيه بالذكاء الاصطناعي وربما يوصى به لتجنب خطأ المشغل. من الرائع جدًا أن يكون هناك توازن داخل مساحة مجتمعك، وهذا ما يجعل الأعضاء يعودون.
أعتقد أن Discourse لديها بالفعل قسم “كيفية” (ask.discourse.com). هذه في الواقع أفضل أداة ذكاء اصطناعي موجودة في Discourse يمكن للمستخدمين استخدامها بأنفسهم، لذلك لا يحتاجون إلى شخص للقيام بذلك نيابة عنهم. يجب أن تكون كل الأشياء الأخرى مساحة “الأقران”، حيث يتفاعل البشر، ويطرحون أسئلة أكثر من تقديم الإجابات، ويختلفون بسعادة لاستخلاص بعض الحقيقة هنا وهناك.
كما قيل بشكل جميل هنا:
على الأرجح، يأتي الناس إلى مساحة مجتمعية عندما تحدث لهم أشياء غير عادية. من المحتمل أن يكون هناك الكثير من طرح الأسئلة قبل العثور على حل لمشكلة ما، مثل ما هو الإصدار الذي يستخدمونه، وهل جربوا هذا أو ذاك. في بعض الأحيان يكون الأمر رائعًا إذا شعرت ببعض التعاطف من المستخدمين الآخرين. الذكاء الاصطناعي لا يطرح أسئلة؛ ليس لديه حدس حول مدى غبائنا في بعض الأحيان (على سبيل المثال، في Meta: هل حاولت إعادة بناء Discourse؟ هل حاولت الوضع الآمن؟)، وأي تعاطف هو بالتأكيد مزيف، بغض النظر عن مدى إرضائه.
لذلك، طريقتي في التعامل مع الاستجابات التي تحتوي على غالبية محتوى الذكاء الاصطناعي - قد أقوم بحظرها وتنفيذ بوت ذكاء اصطناعي حتى يتمكن المستخدمون من مساعدة أنفسهم بسهولة.