كيف نشعر جميعًا حيال ChatGPT وغيرها من LLMs وكيف ستؤثر على المنتديات؟

فيما يتعلق بالأشخاص الذين يجيبون عن طريق النسخ واللصق من ChatGPT، إليك مثال غريب لبعض ردود الفعل العنيفة:

أرى هذا أيضًا في المنتديات التي أتردد عليها أكثر (وهي ذات طبيعة تقنية للغاية). قام مستخدم جديد معين بنشر 8 أو 9 إجابات يوميًا، جميعها من ChatGPT.

هناك الكثير من المعلومات القيمة هناك، ولكن هناك أيضًا عدم دقة وأشياء مضللة تمامًا (تخيل قائمة معقدة من 7 خطوات، أنظر إلى الخطوة 6 وأعلم أنها لن تعمل أبدًا… لكن الكثير من الناس لا يفعلون ذلك).

يبدو أن هذا المستخدم يحاول بناء سمعة… نفكر في مطالبة الأشخاص بوضع علامة صريحة دائمًا على محتوى ChatGPT على أنه ما هو عليه. طلب نأمل فقط أن يحترموه، ولكن لا يمكننا حقًا فرضه.

هذا يجعلني قلقًا، لا أعتقد أن هذا سيأخذنا إلى مكان جيد. أخشى أن تطغى المحادثات التي لا معنى لها على الإنترنت. قد نُجبر على عيش حياة حقيقية في العالم الحقيقي، لست متأكدًا من أننا نستطيع التعامل مع ذلك… :slight_smile:

14 إعجابًا

ابني الأكبر يستمتع بإرسال المقالات والمنشورات التي تظهر سخافات شات جي بي تي. أستمر في إخباره بأن تقنية شات جي بي تي ربما تكون في مستوى الصف الثاني أو الثالث حاليًا في العديد من المجالات، مثل الرياضيات. اقتباسًا لأحد أساتذتي قبل سنوات، “إنه لا يعرف ما لا يعرفه”.

لم أطلب منه وصفة لخبز كعكة بعد، وأرتجف للتفكير فيما قد يخطئ فيه. (لقد رأيت الكثير من الوصفات التي ينشرها البشر عبر الإنترنت والتي لا يمكن العمل بها على الإطلاق.)

أعتقد أن المحادثة عديمة المعنى قد سيطرت على الإنترنت عندما تم اختراع فيسبوك وتويتر. أولئك منا الذين بلغوا سنًا كافيًا لتذكر يوزنت عندما كان لا يزال من الدقيق وصفها بأنها لعبة فيديو للأشخاص الذين يعرفون القراءة، قد يضعون الخط حتى أبعد في الماضي.

3 إعجابات

نشعر بهذا بالتأكيد في الوقت الحالي - ندير منتدى Discourse مجاني ومفتوح، ونرى الكثير من روبوتات البريد العشوائي على طراز ChatGPT تتسلل عبر حماية البريد العشوائي الحالية.

لا يواكب Akismet هذه الروبوتات في الوقت الحالي، حيث لم أر قط هذا العدد الكبير من حسابات البريد العشوائي التي تمر من قبل. تميل هذه الحسابات إلى نشر تعليقات تبدو غير ضارة تجيب على سؤال (أو تعيد صياغته، ثم تجيب) بإجابة مطولة تبدو مفيدة، ولكنها تفتقر إلى بعض السياق أو الدقة من السؤال الأصلي.

أفترض أن منتديات Discourse مستهدفة كساحة اختبار، لأسباب مماثلة لمواقع WordPress قبل عقد من الزمان: إنها تقنية مفتوحة المصدر مستخدمة على نطاق واسع، لذا فإن الروبوتات التي يمكنها التنقل في تدفق التسجيل في منتدى واحد يمكنها على الأرجح الوصول إلى العديد من المنتديات الأخرى.

نحن لا نرى حاليًا سلوك روبوتات البريد العشوائي التقليدي (إنشاء حساب، ونشر شيء غير ضار بما يكفي لتجاوز إجراءات مكافحة البريد العشوائي، ثم تعديله في غضون 48 ساعة لإضافة روابط) - لذلك لست متأكدًا مما هو الهدف النهائي هنا. من الممكن أننا نحذف هذه المشاركات بسرعة كبيرة، وسيتم تعديلها لاحقًا لتصبح مزارع روابط خلفية.

13 إعجابًا

تم تقسيم 8 مشاركات إلى موضوع جديد: نماذج اللغات الكبيرة وتأثيرها على دعم العملاء

ماذا ينصحك ChatGPT بشأن مشكلتك :rofl: وكل الآخرين؟ وهل يتفقون مع بعضهم البعض :rofl: :rofl:

4 إعجابات

أعتقد أن المصادقة الثنائية الإلزامية يجب أن تستبعد معظم الروبوتات. أي أفكار؟

بخلاف ذلك، ربما سأجعل المستخدمين يملأون نموذجًا بعد إنشاء حساباتهم وأضيفهم إلى مجموعة “تم التحقق منها” عبر خطاف ويب عند إرسال النموذج وأجعل المنتدى للقراءة فقط لجميع غير المتحقق منهم.

ومع ذلك، الآن بعد أن أصبحت الروبوتات قادرة على تصفح الويب وفهم نوايا الأزرار، أعتقد أن هذا نهج مؤقت.

إعجابَين (2)

معظم المنتديات مفتوحة (لا يحتاج المرء إلى التسجيل للزيارة) ويمكن العثور عليها باستخدام جوجل وما شابه. المصادقة الثنائية لن تمنع ذلك.

إعجاب واحد (1)

المصادقة الثنائية المطلوبة لإنشاء الحساب ستعمل على 99.9% من الروبوتات…

5 إعجابات

هذا روبوت مثير للاهتمام.

إعجابَين (2)

أتساءل عما إذا كان شخص مدرب على قراءة الشفاه سيكون قادرًا على فهمه مع إيقاف تشغيل الصوت؟

3 إعجابات

سبب آخر للحذر بشأن استخدام تقنية ChatGPT.

تم إدراج أستاذ قانون من كاليفورنيا في قائمة أنشأها ChatGPT لعلماء قانون متهمين بالتحرش الجنسي. استشهد ChatGPT بقصة من صحيفة واشنطن بوست كمصدر له.

المشكلة هي أنه لا توجد قصة كهذه في صحيفة واشنطن بوست ولم يتم توجيه أي اتهامات بالتحرش الجنسي ضد أستاذ القانون هذا.

إليك رابط للقصة، على موقع صحيفة واشنطن بوست، وبالمصادفة:
https://www.washingtonpost.com/technology/2023/04/05/chatgpt-lies/

إذا لم يعمل هذا الرابط، جرب هذا: https://wapo.st/3KhD2R2

9 إعجابات

يمكن للجميع أن يطمئنوا، فقد أعلنت وزارة التجارة عن خطط لضمان أن يكون لدى الذكاء الاصطناعي “ضوابط” مناسبة

من صحيفة وول ستريت جورنال:

“من المذهل رؤية ما يمكن أن تفعله هذه الأدوات حتى في مراحلها الأولى نسبيًا،” قال آلان ديفيدسون، الذي يرأس الإدارة الوطنية للاتصالات والمعلومات، وهي وكالة تابعة لوزارة التجارة أصدرت طلب التعليق. “نحن نعلم أننا بحاجة إلى وضع بعض الضوابط لضمان استخدامها بمسؤولية.”

:sarcasm off:

3 إعجابات

نعم… إذا كان النص لا يزال يُكتب بالفعل بواسطة مشاركين بشريين.
وهو ما لن يحدث على الأرجح، أكثر فأكثر. ومن هنا تأتي المشكلة.

قد يتسبب الذكاء الاصطناعي في جعل كل ما وصفته أسوأ وأسوأ، وأكثر صعوبة في الكشف عنه.
مؤلفو الكتب شيء. عدم معرفة من تتعامل معه بالفعل في المناقشات عبر الإنترنت شيء آخر. كل الأدلة التي يُفترض أن تحصل عليها من نص مكتوب تصبح مشوهة إذا لم يكتبها فرد بصدق، ولكن باستخدام الذكاء الاصطناعي.

3 إعجابات

هذا سؤال يعتمد كليًا على المجال. دوائري متصلة بقوة بتغذية الكلاب وإطعامها. أرى على الفور ما إذا كان النص قد تم إنشاؤه بواسطة الذكاء الاصطناعي - لأن الذكاء الاصطناعي يعتقد أن مليون ذبابة لا يمكن أن تكون خاطئة.

نفس الشيء مرئي عندما نتحدث عن المشي لمسافات طويلة والتجديف وما إلى ذلك.

لذا، يعتمد الأمر على نوع الطائفة التي كتبت معظم النصوص على الويب. لهذا السبب يعتبر كل شخص آخر غير المبرمج في أصدقائي / مجتمعي الذكاء الاصطناعي مجرد ضجة أخرى - في الوقت الحالي على أي حال ؛)

إعجابَين (2)

رأيت هذا للتو واعتقدت أنه سيكون ذا صلة بمدى سهولة (وهو في الواقع بالفعل) وضع إجابات الذكاء الاصطناعي في كل مربع إدخال:

3 إعجابات

غير لائق قليلاً …

5 إعجابات

لدي أول حالة لمستخدم ربما يستخدم ChatGPT للردود الجدلية. هذا الشخص هو بالفعل متصيد حدودي، وأنا لست سعيدًا بهذا التطور.

استخدم مستخدم آخر إضافة جديدة لمتصفح Chrome لتحديد الهوية:

لست متأكدًا بعد من مدى جودة هذه الإضافة - يبدو أنها تفترض افتراضيًا “بشري” للعينات غير الكافية، ولكنها قد تفوت أنواعًا/أنماطًا معينة من النصوص التي تم إنشاؤها بواسطة الذكاء الاصطناعي (مثل الأغاني القصيرة التي تم إنشاؤها بواسطة ChatGPT).

خطة الإشراف الحالية الخاصة بي، إذا كان بإمكاني تسميتها كذلك، هي السماح للمستخدمين الآخرين بتحديد هذه الانتهاكات والإبلاغ عنها، والسماح للضغط الاجتماعي بأن يكون رادعًا. لست متأكدًا مما يمكن فعله آخر في الوقت الحالي.

إعجابَين (2)

إذا حدث هذا في منتدى الخاص بي، فسأرغب في توضيح أن نشر نص تم إنشاؤه بواسطة آلة دون الإشارة إليه هو جريمة تستحق العلامة. في الأساس، إنه خادع، لذا فهو ضد الإرشادات.

3 إعجابات

أتفق من حيث المبدأ، لكن معايير تحديد النص الذي تم إنشاؤه بواسطة آلة هي هدف متحرك. الخبر السار هو أن امتداد Chrome لم يولد أي نتائج إيجابية خاطئة حتى الآن، على الرغم من الاختبار المحدود للغاية. الخبر السيئ هو عمل إضافي للمشرفين لاتخاذ القرار، والحاجة إلى مواكبة أحدث أدوات الكشف مع تحسن النص الذي تم إنشاؤه بواسطة الذكاء الاصطناعي. سيصل نص الذكاء الاصطناعي في النهاية إلى نقطة يكون فيها الكشف مشكلة.

3 إعجابات

بالتأكيد، لكنني أفكر في الأمر كمشكلة إشراف. يراقب المشرفون البشريون لدينا بالفعل المنشورات التي تكون تصادمية أو وقحة أو مهينة أو متكررة أو مضللة. هذا امتداد لذلك: ومع وجود معيار ثقافي محلي يقول إن الأشخاص الحقيقيين لا ينشرون نصوصًا آلية دون إشعار تحذيري، فإن أي شيء يبدو (أو رائحته) كنص آلي، خاصة من مستخدم جديد نسبيًا، يكون مشبوهًا تلقائيًا.

أعتقد أن العقول البشرية، وخاصة عقول المشرفين، ستصبح جيدة بشكل معقول في اكتشاف النصوص الآلية. عندما يصبح النص الآلي غير قابل للتمييز عن منشور مفيد يساهم في تقدم المحادثة، فلن تكون لدينا مشكلة بعد ذلك. (ربما سيتم معاقبة الأشخاص الذين ينشرون محتوى منخفض الجهد والقيمة المنخفضة.)

3 إعجابات