مشكلة فهرسة Google (robots.txt)

أبلغتني Google عن هذه المشكلة في منتداي، هل لديكم أي اقتراحات لحلها؟

كما أن Discourse لا يحتوي على خريطة موقع (sitemap)، لقد وجدت إضافة لخريطة الموقع ولكن سؤالي هو: هل تُحدَّث خريطة الموقع تلقائيًا باستمرار، أم أنني بحاجة إلى إعادة تشغيل الإضافة بشكل متكرر لتحديث خريطة الموقع؟

المنتدى المرجعي

كم عدد الصفحات / الروابط المتأثرة بهذه المشكلة؟

7

:bell:

:magnifying_glass_tilted_left:

10 أبريل 2020

https://voskcointalk.com/u/greer

10 أبريل 2020

10 أبريل 2020

10 أبريل 2020

10 أبريل 2020

9 أبريل 2020

9 أبريل 2020

نعم، يتم استبعاد صفحات /u/ افتراضيًا في ملف robots.txt. هل تعتقد أنك تفوت شيئًا بعدم فهرسة ملفات المستخدمين؟

إذا كانت الإجابة بنعم، فيمكنك تجاوز ملف robots.txt الخاص بك في

https://voskcointalk.com/admin/customize/robots

هل هناك سبب لاستبعادهم افتراضيًا؟ ماذا لو أراد شخص ما البحث عن مستخدم معين في منتدى بسهولة عبر جوجل، على سبيل المثال؟

إذا لم يتم فهرسة ملف greer voskcointalk الشخصي، فلن يكون ذلك ممكنًا إلا إذا قام جوجل بربطه بخيط خاص به، ثم توجيه المستخدم مباشرةً إليه.

لا يوجد محتوى في عرض الزاحف لصفحات الملف الشخصي سوى السيرة الذاتية، ويحبّ المزعجون وضع محتوى غير مرغوب فيه في سيرتهم الذاتية. من الأفضل بشكل عام حظر الزحف لمنع ربط هذا المحتوى غير المرغوب فيه بالموقع.

أيضًا، لا يحتوي Discourse على خريطة موقع. لقد وجدت إضافة لخريطة الموقع، لكن سؤالي حولها هو: هل تُحدَّث خريطة الموقع باستمرار، أم أنني بحاجة إلى إعادة تشغيل الإضافة بشكل متكرر لتحديث خريطة الموقع؟

هل أنت على دراية بهذه المعلومات؟ شكرًا لك على الرد أعلاه.

يتم تحديثه تلقائيًا.

تجنب الحظر بواسطة WAF: (http.request.uri.path eq "/basic-info.json" and http.request.uri.path eq "/posts(/[0-9]+)?") تجاهل الكل.