أتساءل كيف سيؤثر ذلك على المنتديات والتواصل النصي بشكل عام. كما أقلق بشأن كيفية تأثيره في النهاية على التواصل الصوتي أيضًا.
هل سيصل الأمر إلى النقطة التي يقوم فيها معظم المستخدمين بإنشاء منشورات باستخدام ChatGPT ونسخها ولصقها في المنتديات؟ إذا كان الأمر كذلك، فهل سيحاول الناس نسخ منشورات المنتدى ولصقها في ChatGPT لتلخيص المنشور المكتوب بواسطة الذكاء الاصطناعي؟ هل سنكترث إذا كتب شخص ما شيئًا “بشكل طبيعي” أو استخدم مساعدة الذكاء الاصطناعي؟ هل سيكون هناك فائدة كبيرة للمنتديات والمواقع بشكل عام إذا كان بإمكان الأشخاص الحصول على إجابات مماثلة من ChatGPT؟ كيف ستتميز المنتديات وتبقى ذات صلة نسبيًا؟
أشعر بعدم اليقين بشأن ما سيأتي وأحب فقط أن أسمع ما يشعر به ويفكر فيه الآخرون الآن حول هذا الموضوع
بعد أن قدم لي ChatGPT مؤخرًا إجابات خاطئة بثقة حول مسارات الدراجات الجبلية المحلية الخاصة بي، سأذهب إلى أبعد الحدود وأقول إنني لا أتوقع أن يكون لنماذج اللغة الكبيرة تأثير كبير على المناقشات عبر الإنترنت. ستتحسن إجاباتها بمرور الوقت، لكنها لن تمتلك أبدًا الدافع البشري لتجنب الخطأ على الإنترنت. أيضًا، كنموذج لغوي، فهو “غير قادر على القيام بأفعال جسدية مثل الذهاب في رحلة بالدراجة الجبلية”. لذلك حتى لو كان بإمكانه تزويدي بمعلومات دقيقة حول المسارات، فإنه يفتقر إلى البعد البشري الذي سيأتي من وجود منتدى محلي لركوب الدراجات الجبلية.
من الواضح أنني متحمس. لدينا صندوق جديد تمامًا من الألعاب لنلعب بها، وهذه الألعاب تختلف عن أي ألعاب أخرى كانت لدينا في الماضي. كما هو الحال مع معظم التقنيات، يمكن استخدامها للخير أو للشر.
شخصيًا، أشعر وكأنني في خضم ضباب الذكاء الاصطناعي. اعتدت أن يكون لدي فهم جيد لمسار الأمور في السنوات الثلاث إلى الأربع القادمة؛ ومع ذلك، فقد طرحت نماذج اللغات الكبيرة (LLMs) والتطورات المستقبلية لهذه التقنية عقبة في الطريق. أنا فقط لا أعرف أين ستكون الأمور في غضون عام واحد.
عندما تنظر عن كثب إلى السرعة التي تحرك بها الانتشار المستقر (stable diffusion) في الأشهر القليلة الماضية، فإن ذلك مذهل. عندما تنظر إلى نطاق التقدم من GPT 3.5 إلى 4، فإنه مذهل أيضًا.
حتى مع ضباب الذكاء الاصطناعي الجديد، لدي بعض المخاوف الحقيقية:
من الواضح تمامًا بالنسبة لي أن منتديات الدعم سيتم استيعابها بواسطة نماذج اللغات الكبيرة (LLMs) واستخدامها كبيانات تدريب لروبوتات الدردشة المفيدة. الميزة هنا هي أن الكثير من العمل الشاق المتعلق بالدعم يمكن أن يختفي، وتحصل على إجابات على الفور. ومع ذلك، فإن الجانب السلبي هو أنه سيتم إنشاء محتوى جديد أقل، مما قد يؤدي بسرعة إلى دوامة موت ما لم يتم التخفيف من حدته.
أنا متأكد من أن البريد العشوائي وغيره من الجهات الفاعلة السيئة سيعتمدون على هذه التقنية، ويشنون هجمات أكثر تطورًا بكثير من أي شيء رأيناه حتى الآن، مما قد يؤدي إلى تدمير المنتديات إذا لم نكن حذرين.
يمكن لهذه التقنية المساعدة أن تقوض الثقة. عندما تقرأ الكلمات التي أكتبها، تتوقع أن تأتي الكلمات مني. يمكن للناس استخدام الذكاء الاصطناعي للقيام بأكثر من مجرد التدقيق اللغوي؛ يمكنه إعادة صياغة كلماتنا بالكامل. هل تريد أن تبدو مثل مالكولم جلادويل؟ لا مشكلة، يمكنك فعل ذلك. ما هو مستوى التصنيف الذي يجب أن يتوقعه مستخدمو المنتديات المسؤولون؟ سيتخلى الناس عن المنتديات إذا لم يعودوا يثقون في أنهم يتحدثون إلى أشخاص أو أنهم يتحدثون ببساطة إلى صور زائفة.
اقرأ هذا بكلمات مالكولم
في عالم اليوم، تتمتع التكنولوجيا المساعدة بالقدرة على تقويض الثقة بطرق قد لا نكون قد توقعناها. كمستهلكين للكلمة المكتوبة، لدينا توقعات معينة - وهي أن الكلمات التي نقرأها أصلية وتنبع من مصدرها المعلن. ومع ذلك، مع ظهور تكنولوجيا الذكاء الاصطناعي، يمكن للأفراد معالجة النص المكتوب بطرق تتجاوز مجرد التدقيق اللغوي. في الأساس، يمكنهم إعادة صياغة الرسالة بالكامل لتبدو مثل أي شخص يختارونه. لذا، إذا كنت قد حلمت يومًا بأن تبدو مثل مالكولم جلادويل أو أي شخصية بارزة أخرى، فيمكن لهذه التكنولوجيا أن تجعل ذلك يحدث بسهولة. ومع ذلك، يثير هذا تساؤلات حول التصنيف المسؤول لمستخدمي المنتديات. إذا لم يعد بإمكان الأشخاص الوثوق في أنهم يتفاعلون مع أشخاص آخرين، وليس فقط صور زائفة تم إنشاؤها بواسطة الكمبيوتر، فقد يتخلون عن المنتديات تمامًا. مستوى التصنيف المطلوب للحفاظ على الثقة في الخطاب عبر الإنترنت هو مصدر قلق ملح يستحق دراسة جادة.
لقد رأينا منتديات مصانع تحسين محركات البحث (SEO) في الماضي؛ سنرى إصدارات أكثر تفصيلاً ومخيفة من هذا.
مخاوف أخرى مشابهة لـ GPT 4
هناك خطر من أن يؤدي استخدام نماذج اللغات الكبيرة (LLMs) في المنتديات إلى خلق ثقافة كسل بين المستخدمين الذين يعتمدون بشكل كبير على تكنولوجيا الذكاء الاصطناعي لتقديم الإجابات والرؤى. هذا يمكن أن يؤدي إلى تدهور في التفكير النقدي ومهارات حل المشكلات لدى مستخدمي المنتديات.
يثير استخدام نماذج اللغات الكبيرة (LLMs) في المنتديات مخاوف أخلاقية بشأن خصوصية البيانات وأمنها. قد يشعر المستخدمون بعدم الارتياح لفكرة تحليل ومعالجة معلوماتهم الشخصية وتفاعلاتهم بواسطة نظام ذكاء اصطناعي، خاصة إذا لم يكونوا على دراية كاملة بكيفية استخدام بياناتهم.
قد يؤدي دمج نماذج اللغات الكبيرة (LLMs) في المنتديات إلى تفاقم التحيزات وعدم المساواة القائمة، خاصة إذا تم تدريب تكنولوجيا الذكاء الاصطناعي على مجموعة بيانات محدودة لا تلتقط تنوع تجارب ووجهات نظر مستخدمي المنتديات.
قد يؤدي استخدام نماذج اللغات الكبيرة (LLMs) في المنتديات أيضًا إلى تجانس الخطاب، حيث من المرجح أن يتلقى المستخدمون ردودًا موحدة يتم إنشاؤها بواسطة نظام الذكاء الاصطناعي بدلاً من ردود دقيقة ومتنوعة من مستخدمين بشريين آخرين. هذا يمكن أن يخنق الإبداع والأصالة في محادثات المنتديات.
هناك خطر من أن يؤدي دمج نماذج اللغات الكبيرة (LLMs) في المنتديات إلى إزاحة المشرفين البشريين وموظفي الدعم، مما قد يكون له آثار سلبية على الأمن الوظيفي وجودة الدعم المقدم للمستخدمين.
على الرغم من هذه المخاوف وغيرها، ما زلت متحمسًا ومتفائلًا. ستكون هناك تطبيقات مبهجة ومفيدة للغاية لهذه التقنية ونأمل في استكشاف ذلك في Discourse.
لقد انطفأت النار؛ أفضل ما يمكننا فعله هنا هو توخي الحذر الشديد في أساليبنا وتجاربنا ومحاولة احتواء النار. آمل أن نتمكن من احتواء النار. ولكنك تعلم… ضباب الذكاء الاصطناعي…
هذا يمس أحد الأسئلة الأكثر عمقًا حول الذكاء الاصطناعي، وهو ما إذا كان الأمر مهمًا، وبأي طرق، إذا كنت أتواصل مع شخص عادي، أو شخص “معزز”، أو ذكاء اصطناعي. دعنا نسمي ذلك “مشكلة هوية المحاور”.
بطرق معينة ، تعامل البشر دائمًا مع مشكلة هوية المحاور. في الفلسفة ، يُعرف هذا أحيانًا باسم “مشكلة العقول الأخرى”. أحد أشهر البيانات عنها هو شيطان الشر لدى ديكارت، وهو السياق الذي وضع فيه عبارة “أنا أفكر، إذن أنا موجود”. الأسئلة حول كيف سنشعر، أو كيف يجب أن نشعر، تجاه التواصل مع الذكاء الاصطناعي هي في الأساس امتداد لنفس السؤال.
ينشأ هذا بطريقة مثيرة للاهتمام في سياق المنتديات، لأنه في كثير من النواحي أعتقد أننا نقبل بالفعل مستوى عالٍ من الغموض في هوية المحاور. كل ما لدينا للحكم على محاورينا هو كلماتهم وربما عرضهم الذاتي (أي الصورة الرمزية، اسم المستخدم، إلخ). للأفضل أو للأسوأ، في كثير من الحالات لا نفكر كثيرًا في هوية المحاور، أو على الأقل على استعداد لقبول الغموض.
هذا السياق يقودني إلى استنتاجات أكثر حذرًا (أو أسئلة ربما) حول كيفية تأثير ذلك على المنتديات. على سبيل المثال، دعنا ننظر في البريد العشوائي (spam). نحن لا نحب البريد العشوائي لعدد من الأسباب، لكن دعنا نركز على سببين مترابطين:
إنه ضوضاء قبيحة تجعل المنتدى أقل جاذبية.
له غرض تجاري أو خبيث أو غرض آخر لا نريد دعمه.
لنفترض أن تطبيق نموذج لغوي كبير (LLM) على “البريد العشوائي” يؤدي إلى تقليل الأول ونهج أكثر دقة للثاني. إذا لم يفعل هذه الأشياء، فإن طرق القضاء على البريد العشوائي الحالية ستكون كافية للتعامل معها. بطرق معينة، من الخطأ تسمية هذا بريدًا عشوائيًا، بل هو أشبه بـ “تسويق آلي متطور”، أو… “سام” (آسف لم أستطع المقاومة).
ومع ذلك، بمجرد أن ندخل في منطقة سام، فإننا نقترب حتمًا من نفس مشكلة هوية المحاور الأساسية. يحدث بالفعل أن يستخدم بعض الأشخاص وجودهم في منتدى للتسويق بطريقة دقيقة وغير مباشرة. السؤال هو ما إذا كنا نهتم بهوية الفاعل الذي يقوم بذلك.
أشارك بالتأكيد مخاوفك بشأن تأثيره على سوق العمل. ومع ذلك، لأسباب مماثلة، لست متأكدًا من أنه سيؤدي إلى نظام بيئي للمنتديات أكثر غباءً أو كسلاً أو قبحًا أو تجارية. إذا قام نموذج لغوي كبير بذلك في منتدى، فمن المحتمل ألا ينجح هذا المنتدى بشكل جيد، ولكن بعد ذلك سيجد مستخدموه السابقون منتدى آخر غير متأثر بنموذج لغوي كبير، أو متأثر بنموذج أكثر تطورًا.
تسهل المنتديات أسواق المعرفة والاهتمام والتواصل البشري. إذا نجح نموذج لغوي كبير في تلك الأسواق، فسوف يؤثر بلا شك على العمل، لكنني لست متأكدًا من أنه سيقلل الطلب. في الواقع، النجاح يعني العكس.
هل هذا ربما هو العامل الأكثر أهمية؟ كل مشاركة مرتبطة بهوية فريدة. عندما أرى مشاركة منك أو من سام (المفترض أنه حقيقي)، أقدر مدى احتمالية صحة تلك المعلومات. لقد سمعت سام في بودكاست، وتحدثت معك في مكالمة الفيديو للخبراء العام الماضي، لذلك يمكنني افتراض أن هناك شخصًا حقيقيًا على الأقل وراء هذه المشاركات.
ولكن هل الشخص الحقيقي مهم حتى؟ إذا كان هناك حساب باسم “Hal Mcdave” يقدم معلومات صحيحة بأسلوب متسق ومتماسك، فسأبدأ أيضًا في الثقة بهذه المعلومات والاستفادة منها. فهل هذا ليس جيدًا؟
بالتأكيد لم تكن المشكلة الحقيقية هي الذكاء الاصطناعي؛ بل الغباء الاصطناعي.
لا. قم بجولة سريعة بين المنتديات وانظر ما هو المحتوى حقًا.
ستغير الذكاءات الاصطناعية عالم أنظمة إدارة المحتوى (CMS). وسيؤثر ذلك بشدة على عالم يشبه ووردبريس (WordPress). وهناك بالفعل محتوى نسخ ولصق مثل قائمة عام XXXX، كيفية القيام بـ…، إلخ.
هذه الدائرة هنا هي جزء من الجمهور الذي سيستخدم ويرى استخدامًا قويًا لـ ChatGPT وما إلى ذلك. لكن الغالبية العظمى من بقية العالم… ليس كثيرًا. إنهم لا يكتبون بعد الآن، ولا يعرفون كيفية النسخ واللصق، ولا يستخدمون أيًا من هذه الأدوات الرائعة التي يوفرها Discourse على سبيل المثال.
أنتم مجرد وحيد قرن وردي نادرون. بالنسبة لكم، كل ما يعتمد على الذكاء الاصطناعي هو ملعب جديد أو لعبة لأنه جزء من حياتكم المهنية وهواياتكم.
بالنسبة لـ CDCK، هذه مسألة مستقبل قريب بسبب العملاء من الشركات الكبرى. غالبًا ما يستخدمون Discourse للوثائق والمساعدة والدعم. بالنسبة لهم، لا تحقق وظائف الدعم هذه إيرادات وتحتاج إلى قوة بشرية مدفوعة الأجر. سيكونون في قمة السعادة عندما يكون هناك ذكاء اصطناعي يجيب على العملاء ولا يحتاجون إلى طاقم دعم بعد الآن. والمطورون سعداء كما هم، لأنه كما نعلم جميعًا، التكنولوجيا لا تعمل بدون تصحيح وإصلاح لا نهاية لهما.
لذلك، لا تلتهم الحلول القائمة على الذكاء الاصطناعي الثقة أو أي شيء آخر، لأنه لا توجد ثقة في الوقت الحالي أيضًا. لا يستطيع المستخدمون العاديون رؤية أو حتى الاهتمام بما إذا كانت الإجابات والتعليقات تأتي من مجموعة من الأكواد. إنهم سعداء تمامًا بمنشئي الميمات الجدد وفلاتر تيك توك (TikTok) بحق السماء، إنهم يدفعون بالفعل لتطبيقات المواعدة حيث معظم الأقران ليسوا بشرًا…
آسف يا رفاق، لكنكم تناقشون الآن في صندوق ضيق :ابتسامة:
ولكن بدلاً من إنشاء المحتوى التلقائي، الذي يدعم أصحاب المنصة فقط، أود أن أرى مترجمًا يعتمد على الذكاء الاصطناعي في الوقت الفعلي يعمل بالفعل - لأن ما لدينا الآن لا يعمل ببساطة.
سيساعد ذلك المستخدمين على إنشاء أي نوع من النصوص، وبالكلام أيضًا بالطبع، لدرجة أن المنتديات والمحادثات وأي شيء آخر سيصل إلى جمهور عالمي حقيقي. هذه أداة واحدة أنتظرها.
أو ما شابه. لعب سام بفكرة في موضوع ما لاستخدام الذكاء الاصطناعي في وضع الموضوعات في الفئة الصحيحة. الحصول على علامات مفيدة حقًا لكل مستخدم بناءً على سجل القراءة/البحث سيكون شيئًا. مثل هذه الأشياء.
لذلك، لا أرى الذكاء الاصطناعي كتهديد حقيقي ضد الإبداع والمحادثة. أرى الذكاء الاصطناعي “فقط” كأداة لتقليل الحاجة إلى القيام بالأشياء المملة
مرة أخرى. هناك بالفعل محتوى منخفض المستوى وغير عالي الجودة يستحق ملايين التحميلات للصفحات. إذا غير الذكاء الاصطناعي ذلك، فلن أراه كتهديد. وإذا أنشأت حلول الذكاء الاصطناعي نفس الأشياء السيئة… حسنًا، فسوف تموت مثل محادثات الدعم التلقائي المزيفة (التي هي مجرد واجهات أنيقة لنماذج البريد الإلكتروني).
لقد شعرت بنفس الشيء ولكني آمل أن يرغب البشر في الاستمرار في القيام بأشياء بشرية مثل المناقشة (وليس فقط كتابة الأكواد، ونسخ ولصق البيانات).
يمكن أن تكون أدوات الذكاء الاصطناعي مفيدة للغاية للمهام التشغيلية والمتكررة ولا أعتقد أن الروبوتات يمكنها بالفعل الانخراط حقًا في المحادثات البشرية.
هذا غير ممكن أساسًا ولن يغير 99.99٪ من البيانات في العالم ذلك بسبب الحرية والاختيار والحياة.
الحياة هي التغيير ولا يمكن للذكاء الاصطناعي أن يتغير من تلقاء نفسه، ليس أساسًا (بخلاف سكاي نت، بالطبع).
سيستمر غالبية الناس في البحث على جوجل والنقر فقط على الرابط الأول.
ولكن سيكون هناك دائمًا 3٪ من العالم يختارون القفز إلى أول 5/10 صفحات أو يستخدمون Duckduckgo بدلاً من ذلك للتصفح والتنقل حقًا في الإنترنت كما في الأيام الخوالي.
الذكاء الاصطناعي سيء للغاية في وسائل التواصل الاجتماعي بسبب التحكم والرقابة والتلاعب الهائل ولكن ليس كثيرًا في منصات المنتديات.
في يوم من الأيام سيعرف عدد قليل جدًا من الناس في العالم كل شيء عن جميع الناس ولكن هل سيشمل ذلك إمكانية تغييرنا؟
لا أعتقد ذلك (وينطبق الشيء نفسه على التكنولوجيا الكمومية التي ستكسر كل شيء دفعة واحدة).
قبل سنوات، قامت إحدى المجلات التقنية بربط برنامجين شبيهين بـ Eliza، أحدهما مصمم للتحدث مثل طبيب، والآخر مثل شخص مصاب بجنون الارتياب. كانت النتائج مضحكة، لكنها لم تكن محركات متطورة مثل GPT.
إذا بدأت نسختان من GPT في الدردشة مع بعضهما البعض حول فرق الرياضة أو الشطرنج أو الخبز (المجالات التي أدير فيها حاليًا منتديات نقاش)، فهل سيكون ذلك قراءة مثيرة للاهتمام؟ أشك في ذلك.
مصطلح “الذكاء الاصطناعي” يمكن أن يثير الخوف بشكل مشروع وغالبًا ما كان الذكاء الاصطناعي سببًا في الدمار في الكتب والأفلام وما إلى ذلك.
أتساءل عما إذا كنا سنشعر بشكل مختلف إذا كانت كل هذه التكنولوجيا التي تنتشر بسرعة هذه الأيام (midjourney، chatGPT…) لا تستخدم مصطلح “الذكاء الاصطناعي” على الإطلاق ولكن شيئًا آخر لدينا تحيز ثقافي أقل تجاهه.
أود الحصول على روبوت محادثة بيطري يعمل بالذكاء الاصطناعي للاستشارات الأولية التلقائية، بالإضافة إلى جمع المعلومات لبناء موضوع طلب دعم مفصل للأطباء البيطريين البشريين.
أعتقد أنني لا أستطيع التحدث نيابة عن الآخرين حقًا. ولكن من تجربتي، استخدمت بشكل أساسي منتديات Discourse (ودردشة Discord) للتفاعل مع الأشخاص حول اهتمامات مشتركة معينة في المنتجات التي لا تزال في طور النمو، حيث لست متأكدًا من فائدة الدردشة مع الذكاء الاصطناعي، على سبيل المثال:
منتدى تطبيق Auxy (تطبيق موسيقى، تم إغلاقه الآن ولكنه موجود على Discord) حيث شارك الأشخاص ملاحظات حول أعمالهم قيد التقدم وقدموا نصائح خاصة بالتطبيق. لا يوجد أي مواد مكتوبة مسبقًا عن التطبيق بخلاف ما كتبه المجتمع.
منتدى Hopscotch (تطبيق برمجة بالسحب والإفلات، حيث أعمل وساعدت في تأسيسه عندما بدأ). مرة أخرى، لم تكن هناك مواد مكتوبة وأدلة مفصلة عن التطبيق في أي مكان على الإنترنت، قبل أن يكتب المجتمع كل تلك المشاركات، لذا فإن أي ذكاء اصطناعي سيعيد صياغة ما كتبناه.
Sky: Children of the Light (لعبة، مجتمع على Discord ولكن الفرضية لا تزال كما هي) مرة أخرى، لعبتها خلال فترة تجريبية قبل أن تكون هناك أي مواد مكتوبة على الإطلاق. وساعدت في كتابة المحتوى الموسيقي على الويكي وكنت مع المجتمع منذ ما قبل إنشاء كل هذا المحتوى.
في جميع الحالات، لم “يستخدم الذكاء الاصطناعي التطبيقات” بنفسه.
لذا، لا أعرف ما إذا كان الذكاء الاصطناعي سيكون مفيدًا، ربما باستثناء صياغة كل ما أنشأه المجتمع بشكل لطيف، لأنه لم يكن هناك أي محتوى مكتوب على الإطلاق حول تلك الموضوعات قبل أن يكتبها كل هؤلاء الأشخاص من خلال المناقشات.
(أعتقد أن ماركس في رأس المال، بعد مراقبة عمال المصانع في إنجلترا، قال شيئًا مثل أن الناس لا يستخدمون الآلات؛ الآلات تستخدم الناس)
ليس الأمر أن هذا الذكاء الاصطناعي ليس رائعًا أو مفيدًا، بل إنه ربما لم يكن مفيدًا جدًا لو كان موجودًا أثناء وجودي في تلك المجتمعات.
منذ نوفمبر، قمت بإنشاء @Robolivier، وهو روبوت ذكاء اصطناعي ودود يساعد المستخدمين عندما يذكرونه. كما أنه يرد على كل موضوع جديد مرة واحدة على أمل تزويد المستخدم بإجابة مرضية. لقد أضفت إخلاء مسؤولية لكل رسائله.
حتى الآن، يجد المستخدمون أنه مسلٍ ومفيد في معظم الأوقات.
أخطط لتدريبه على تفاعلاتي الخاصة في المنتدى، وسنرى كيف سيسير الأمر.
نظرًا لأنه منتدى مدفوع، فإن الروبوتات ليست مشكلة بالنسبة لي. لكن يمكنني أن أرى كيف يمكن لمنتدى مفتوح ومجاني أن يتعرض للبريد العشوائي حتى يصبح غير ذي صلة.
هناك فرق حاسم وهو أنه عندما تستطيع الذكاء الاصطناعي توليد معلومات عالية الجودة بكميات كبيرة تحت عدد كبير بشكل اعتباطي من “الهويات” (التسميات) المتميزة، يصبح من السهل - في اللحظات الحرجة/المربحة - انتهاك الثقة التي تم بناؤها بشكل خاطئ حول تلك الهويات. كإنسان، لا أريد انتهاك الثقة التي بنيتها مع الآخرين، ليس فقط بسبب ضميري، ولكن بسبب التأثير الضار على سمعتي. لكن الهوية المرتبطة بشكل مصطنع بالذكاء الاصطناعي يمكن التخلص منها وإساءة استخدامها بشكل كبير من أجل الجشع الرأسمالي والمكائد السياسية.
إذًا، كيف أشعر؟ خائف من المستقبل. من المرجح جدًا أن تدمر هذه التكنولوجيا مجتمعنا في المستقبل القريب (سنوات)، وفي النهاية (عقود) تدمرنا جسديًا إذا لم نكتشف كيفية إيقافها.
في أحد المنتديات التي أديرها، لدينا شخص كنا نشتبه منذ سنوات في أنه ينشر تحت اسمين مختلفين على الأقل بشخصيات مختلفة، أحدهما أكثر مواجهة من الآخر. مؤخرًا، ارتكب خطأً ووقع منشورًا من عنوان بريد إلكتروني باسمه من الآخر، ثم وقع منشورًا آخر باسم ثالث. لذا نحن نعرف الآن بالتأكيد!
هناك كتاب مثير للاهتمام للغاية حيث يقومون بتحليل الكتاب المشهورين من خلال التحليل الإحصائي لأنماط استخدام الكلمات. يصبح الأمر مثيرًا للاهتمام عندما تُكتب الكتب من قبل مؤلفين متعددين، وقد كُتبت العديد من كتب توم كلانسي اللاحقة إلى حد كبير من قبل كتاب آخرين.
كان هذا النوع من التحليل الإحصائي هو الطريقة التي تم بها تحديد أن ج. ك. رولينج كانت تكتب أيضًا تحت اسم مختلف، قبل أن تؤكد الحقيقة. كما تم استخدامه لتحليل الأوراق الفيدرالية، وخلص في عام 1962 إلى أن ألكسندر هاملتون، كما ادعى الكثيرون، كتب عددًا لا بأس به منها، بما في ذلك العديد من الكتب التي ادعى آخرون تأليفها. (نُشرت بشكل مجهول في ذلك الوقت لأنه كان يُعتقد أن معرفة من كتبها قد يقلل من فعاليتها السياسية.)
لذا ربما هناك بعض القيمة في وجود واجهات شبيهة بـ ChatGPT في منتدياتنا إذا كان بإمكاننا استخدامها لتحليل أساليب الكتابة لمشاركينا.