إن رمي الحذر في مهب الريح ودمج ChatGPT بكل شيء وبأي شيء هو أمر يثير قلقًا بالغًا.
هناك سؤال مهم يجب على المسؤول معرفته وهو: هل هناك أي جزء أو مكون، مهما كان صغيرًا، وهو في الأساس ذكاء اصطناعي ضمن تثبيت Discourse الأساسي؟
أفترض أن الإجابة هي لا، ولكني أريد التحقق.
منذ وصول المكونات الإضافية التي تبدو وكأنها تضع الذكاء الاصطناعي في بيئة معزولة خارج تثبيت Discourse الأساسي، أعتقد أيضًا أنه من المهم معرفة، من منظور خارطة الطريق، ما إذا كانت هناك أي خطط لدمج أي ذكاء اصطناعي حيث لا يوجد حاليًا (إذا كان هذا صحيحًا).
إذا كانت الإجابة نعم على واحد أو أكثر من هذه الأسئلة، فسيكون من الرائع تأكيد ذلك.
حاليًا، تقع جميع الميزات المتعلقة بالذكاء الاصطناعي داخل المكون الإضافي الاختياري Discourse AI.
أما بالنسبة لما إذا كانت هناك أي ميزات أساسية للذكاء الاصطناعي مخطط لها، فسأترك الأمر لمن هم أكثر اطلاعًا للإجابة (ولكن أظن أنها ليست على خارطة الطريق).
نعم، نقطة جيدة فيما يتعلق بالتعريفات. أعتقد أن OP واضح بالمعنى العام كحالة قبل وبعد ChatGPT (وما شابه) وما هي الخطط لـ Discourse، على غرار ما يلي على الأقل:
استخدامه لكتابة الكود الأساسي
استخدامه لدمجه في الأساس
إذا أراد أي شخص آخر المساعدة في التعريف على هذا النحو، ولكن كما قلت قد يكون أفضل تعريف هو أي شيء ليس “كودًا تم إنشاؤه بواسطة الإنسان بالطريقة القديمة، يقوم بمنطق إجرائي تقليدي”.
نعم، لذا فإن الروبوت الذي يبرمج هو السبب في أنني طرحت هذا السؤال على نطاق واسع. الآن بعد أن أصبحت على علم بذلك، أعتقد أنه من مدققات الإملاء والنحو (على سبيل المثال، gramarly) إلى مساعدي البرمجة والمساعدين مثل copilot. أعتقد أنه لا توجد إجابة واضحة ومباشرة، أليس كذلك؟
في أقصى الحدود، ماذا عن أدوات إعادة الهيكلة في بيئة التطوير المتكاملة؟ استخراج الطريقة غير مسموح به؟ استمر في ركوب هذه الموجة وسيعود الأمر إلى بطاقات التثقيب
لإضافة، تستخدم Discourse (والعديد من الإضافات) مجموعات واسعة من الاختبارات الوظيفية وفحوصات التدقيق.
هذا يخفف بشكل كبير من مشاكل التعليمات البرمجية (حاول النشر في RoR بدون فحوصات…) وسيغطي أيضًا التعليمات البرمجية التي تم إنشاؤها بواسطة الذكاء الاصطناعي أو التعليمات البرمجية المدعومة بواسطة Copilot. وهذا لا يأخذ في الاعتبار حقيقة أن Copilot قد يجد بالفعل مشاكل تفوتك…
الانضباط الأساسي فيما يتعلق بالاختبارات على المنصة لا يعلى عليه ويضع مثالاً للنظام البيئي.
إنه أيضًا غير مهم إلى حد ما؟ لا أعتقد أن نشر التعليمات البرمجية غير الخاضعة للإشراف بواسطة الذكاء الاصطناعي سيحدث في أي وقت قريب… لن تصل حتى إلى تشغيل الاختبارات (هل حاولت أن تطلب من ChatGPT حلاً في EmberJS متوافقًا مع Discourse؟ الهلوسات خارج المخططات ). ربما يتحسن ذلك مع تطور النماذج.
يجب على Discourse مواكبة العصر أو الموت في رأيي، وهذا يعني استكشاف واعتماد تقنيات جديدة عند الاقتضاء.
بصفتي مؤلفًا لاثنين من إضافات “الذكاء الاصطناعي” (كلاهما مكتوب يدويًا! ) أدرك أنه يجب أن تأتي مع تحذيرات وإخلاء مسؤولية، ولا أرى أن ذلك سيتغير لفترة طويلة…
إذًا، في إطار “الخطاب” للالتزام بالموضوع الأصلي لأنك تركب تلك الموجة والموجة التالية، بالطبع إنها قضية توسعية، ولكن:
أين تقف الأمور حتى الآن (إذا كنت أقرأ التعليقات بشكل صحيح).
لا توجد مكونات ذكاء اصطناعي نشطة في الخطاب الأساسي
لا توجد مكونات ذكاء اصطناعي غير نشطة أو رموز برمجية داخل الخطاب الأساسي
قد يكون بعض أو كل رموز الخطاب قد تم إنشاؤه بتطبيق مباشر أو غير مباشر لأدوات الذكاء الاصطناعي ضمن منصات تطوير وبيئات تطوير متكاملة وما إلى ذلك متاحة للمطورين.
إضافة أي ميزة ذكاء اصطناعي إلى الأساسيات ليست حاليًا على خارطة الطريق
الإضافات هي البوابة لميزات مدعومة بالذكاء الاصطناعي تعمل مع الخطاب
الذكاء الاصطناعي ليس مصطلحًا تقنيًا … يمكن لشخص واحد أن يفسر الاستدلال على أنه ذكاء اصطناعي. الطريقة التي “نسجل” بها المشاركات مع إعطاء وزن للإعجابات والقراءات والمشاهدات يمكن اعتبارها ذكاءً اصطناعيًا. يمكن تسمية Akismet بـ “الذكاء الاصطناعي”. القائمة طويلة جدًا.
في الوقت الحالي، “يشعر” القطاع بالقلق بشأن سلامة الذكاء الاصطناعي في سياق نماذج اللغة الكبيرة.
في الوقت الحالي، لا تقوم Discourse core و Discourse AI بشحن أي نماذج لغة كبيرة. يدمج Discourse AI نماذج اللغة الكبيرة الحالية عبر واجهات برمجة التطبيقات التي يمكن للمسؤولين إدخالها (Open AI و Anthropic)، وفي المستقبل من المرجح أن ندعم المزيد من النماذج.
نموذج اللغة الكبير (LLM) هو نموذج لغوي يتكون من شبكة عصبية تحتوي على العديد من المعلمات المدربة على كميات كبيرة من النصوص غير المصنفة باستخدام تقنيات التعلم العميق. يمكن لهذه النماذج التعرف على النصوص والبيانات الأخرى وتلخيصها وترجمتها والتنبؤ بها وإنشائها. شهدت نماذج اللغة الكبيرة تقدمًا كبيرًا في السنوات الأخيرة، وتتفوق في مجموعة متنوعة من المهام وتحول مجالات الذكاء الاصطناعي والعلوم والمجتمع ككل [1][2].
تشمل بعض الأمثلة على نماذج اللغة الكبيرة GPT-3 من OpenAI، والذي تم تدريبه للتنبؤ بالكلمة التالية في جملة، يشبه إلى حد كبير ميزة الإكمال التلقائي للرسائل النصية [3].
نص عبر Google + GPT-4
أجد الكثير من هذا النقاش محيرًا بعض الشيء، هل هناك قلق من أننا سنقوم بـ “سرطنة” كود Discourse؟ هل هناك قلق من أن يكون لدينا اعتماد وثيق وغير مشروط على Open AI؟
وجهة نظري هي أنه إذا كنت مرتبكًا حقًا ، أراهن أنك لست على دراية أو على علم أو متعاطف مع “العواقب” لأن القيمة في استكشاف هذا قد لا تكون واضحة ، حيث أن الحصان قد هرب بالفعل وباب الحظيرة مفتوح على مصراعيه ، لذا دع الجميع يذهب!
تقول السرطان ، بل أشبه بسلاح كمي للتدمير الشامل [املأ الفراغ] ، ومع ذلك سيعتقد البعض أن كل هذا مبالغة. هذا رائع. يحق للجميع إبداء رأيهم ، لكنني أفكر بشكل عام وليس بشكل خاص في Discourse ، ما تفعله بالتطوير يعتمد على الطريقة التي تعمل بها ، لتوضيح النقطة فيما يتعلق بالمنشور الأصلي:
السبب الرئيسي الذي أطرحه هو بصفتي مسؤولًا عن Discourse ، حيث لديك واجب تجاه قاعدة مستخدمين ، وبينما قد يكون هذا جزءًا صغيرًا من حيث السوق الحقيقي ، إلا أن قاعدة المستخدمين الخاصة بك أو جزءًا منها لا يزال مهمًا ، وقد يرغبون بالفعل في عدم استخدام منصة تشارك أي أشكال من هذا الجيل من الذكاء الاصطناعي عندما يتعلق الأمر بالمحتوى الذي ينشئونه ، لأسباب عديدة مختلفة. بنفس الطريقة التي قد يستخدمون بها أدوات حظر الإعلانات ، فهم لا يريدون أن يكونوا جزءًا من هذا “الشيء” - عندما يأتي هذا السؤال من المستخدم الأول الذي يسأل ، فهذا لأنه لم تكن هناك سياسة واضحة للذكاء الاصطناعي ، يجب أن يكون لديك أيضًا شكل من أشكال الإجابة التي تكون صادقة.
لذلك ، فإن فصل أدوات الذكاء الاصطناعي كإضافات ليست أساسية هو نهج جيد ، ولكن إذا وصل الأمر إلى أن يكون الذكاء الاصطناعي أساسيًا ، على سبيل المثال في تحديث مستقبلي ، فقد يترك مجالًا للتردد أو الرفض التام للمنصة.
طالما بقي هذا الخط واضحًا ومحددًا ، فقد يكون ذلك طريقة مرضية للجميع ، وقد يكون التوجيه والتأكيد الواضح للتطوير مهمين هنا أيضًا.
أتفهم أيضًا أنه من الصعب تأطيره ليوافق عليه الجميع ، ولكن هذا هو جوهر المشكلة الآن ، وهذا ما يحدث عندما يتم طرح سؤال لسبب حقيقي. إذا كان السبب مؤسسًا أو غير متزعزع ، فسيكون أساسًا للمستخدمين لاتخاذ قرارات قيمة تتحول إلى إجراء.
إذا كان الأمر مجرد حالة أن بيانًا بسيطًا مفاده أنه لا يوجد ChatGPT أو ذكاء اصطناعي مماثل في جوهر Discourse ، مع تحذير من استخدام بعض الذكاء الاصطناعي في التطوير والإنشاء كأداة ، فقد يكون ذلك أقرب ما يكون إلى إجابة مرضية للمستخدم العادي في منتدى Discourse.
بشكل عام ، تم بالفعل تناول قضية كيفية تأثير الذكاء الاصطناعي على الويب وبالتالي العالم ، وشوهدت من حيث التطبيق والعواقب ، وهذه المرحلة من إصدار هذه “الألعاب” رسميًا ، أي إعطاء صندوق باندورا مع واجهات برمجة التطبيقات وما إلى ذلك لعالم التطوير ومرة أخرى بحكم العالم هو تصعيد ، حيث قبل ذلك كانت مرحلة تجريبية خاضعة للرقابة نسبيًا وسرية حيث تم غرس هذا الذكاء الاصطناعي في جزء كبير من الويب لسنوات دون أن يدرك الكثير من الناس العاديين ذلك حتى.
جانب آخر هو الإعلانات ، أفترض أن Google كانت تستخدم الذكاء الاصطناعي من هذا النوع منذ فترة طويلة في تقديم الإعلانات وحتى خدمات التحليلات الخاصة بها ، ولكن على الأقل حتى الآن يمكن للمستخدمين نشر بعض برامج الحظر واستخدام شبكات VPN ، هل تستخدم تلك الأدوات الذكاء الاصطناعي أيضًا ؟! : rofl:
ربما يتعلق الأمر بكيفية إدراك الناس للذكاء الاصطناعي وربما أسهل طريقة للتعبير عن ذلك هي أن البعض يراها في بيئة معزولة (أدوات) ، والبعض الآخر يراها كنار في نسيج الواقع نفسه التي تحتاج إلى إخمادها ، في كلتا الحالتين يحدث ذلك وسيحدث بغض النظر عما هو عليه ، ولكن هناك دائمًا عواقب ، وأحيانًا كل ما لديك هو خيار أن تكون جزءًا من خلق تلك العواقب أو التخفيف منها ، ما لدينا مع “الصناعة” هو أنها في رأيي تفعل كليهما.
إذا كنت تطلب مني أن أقول “من الآن … وحتى نهاية الكون يمكنك الالتزام بأن نماذج اللغات الكبيرة لن تجد طريقها أبدًا إلى المنتج الأساسي” … فالإجابة هي لا.
إذا كنت تسألني “هل سأتمكن من إلغاء الاشتراك، إذا حدث شيء كهذا؟” إجابتي هي … على الأرجح … نميل إلى منح المسؤولين قدرًا هائلاً من الحرية مع إعدادات الموقع والتكوين.
الآن، هل سأطلب منك أن تقول شيئًا آخر غير الحقيقة، لأن ذلك سيكون غير معقول كما يشير ردك أعلاه، من يستطيع أن يقول في جدول زمني لا نهائي، بالتأكيد، إنه في الواقع مسعى لتحديد الموقف الحالي لـ Discourse core باستخدام الذكاء الاصطناعي النشط قدر الإمكان.
ولا أبحث عن أي وعود أيضًا.
اقتراحي الأساسي قبل الإجابة يظل كما هو.
فكر في إبقاء الذكاء الاصطناعي النشط منفصلاً عن النواة حتى يكون لدى المالكين/المسؤولين خيار واضح دون أي التباس. تفضيلي لهذا على خيار التشغيل/الإيقاف في المسؤول، يمكنك تسميتي بالمهووس والرجعي إذا أردت، أنا أفكر في فجوة هوائية من نوع ما.
يتم استجواب ChatGPT وغيره في العديد من المنصات والأدوات، إنه أمر جامح وبالمعنى الواسع، فإن الآثار المترتبة عليه واسعة، فلماذا قد يفوت Discourse القارب (لم يفعل، المكون الإضافي هو هذا الحدث في الجدول الزمني لتطوير Discourse).
سأعتبر السؤال موضحًا قدر الإمكان وآمل أنه إذا كان هناك تغيير ملموس في توازن اللعب، فسيتم تقديم اتصال واضح جدًا مقدمًا أو في إطار زمني مناسب.
قد يكون وجود منتدى به ذكاء اصطناعي نشط في النواة العميقة هو نقطة تحول واحدة أكثر من اللازم لبعض المسؤولين/المالكين و/أو قواعد المستخدمين، وأعتقد أنه يجب اعتبار الذكاء الاصطناعي شيئًا أكبر حتى من حدث نموذجي وهو meta+