كيفية التحقيق في حركة مرور الروبوتات باستخدام Google Analytics

التحقيق في حركة مرور الروبوتات المشتبه بها باستخدام Google Analytics

توفر هذه الدليل عملية خطوة بخطوة لاستخدام Google Analytics 4 (GA4) للمساعدة في تحديد وتحقيق حركة مرور الروبوتات المشتبه بها.

1. فهم تصفية الروبوتات الافتراضية في GA4

يستبعد GA4 تلقائيًا حركة المرور من الروبوتات والعناكب المعروفة افتراضيًا.[1] تعتمد هذه التصفية على أبحاث Google وقائمة International Spiders & Bots الصادرة عن IAB.

الخطوات الواردة في هذا الدليل تهدف إلى مساعدتك في تحديد روبوتات أكثر تطورًا أو غير معروفة قد لا تكون مدرجة في هذه القائمة.

2. تحليل حركة المرور بحثًا عن أنماط غير عادية

غالبًا ما تولد الروبوتات حركة مرور تنحرف بشكل كبير عن أنماط المستخدمين النموذجية لديك.

الخطوات:

  1. فحص التقارير الفورية (Realtime Reports):

    • انتقل إلى Reports > Realtime pages. ابحث عن قفزات مفاجئة وغير مبررة في “عدد المستخدمين النشطين خلال آخر 30 دقيقة”. قد يكون هذا أول علامة على زيادة نشاط الروبوتات.

    :warning: إذا كنت تعتقد أن موقعك يتعرض لهجوم سبام، فاستخدم دليلنا على Immediate actions you can take during a spam attack

  2. التحقيق في الموقع الجغرافي:

    • انتقل إلى Reports > Demographics > User > User attributes > Demographic details.

    • يجب أن يكون الرسم البياني الافتراضي المعروض هو Demographic details: Country. ابحث عن عدد كبير من المستخدمين من دول لا تستهدفها، أو ليس لك فيها وجود تجاري، أو حيث لم تحصل عادةً على الكثير من حركة المرور. تعتبر الزيادة المفاجئة من موقع واحد غير متوقع علامة حمراء كبرى.

  3. تحليل مصادر حركة المرور بحثًا عن سبام الإحالات:

    • انتقل إلى Reports > Acquisition > Traffic acquisition.

    • يفتقر التقرير افتراضيًا إلى “مجموعة القنوات الافتراضية للجلسة”. انقر على السهم المنسدل بجوار البعد الأساسي وحدد Session source / medium. امسح مصادر الإحالة المشبوهة أو غير المنطقية (مثل "free-traffic-seo.com," "buttons-for-your-website.com"). هذه علامات كلاسيكية على سبام الإحالات[2].

3. التدقيق في مقاييس سلوك المستخدم

قد تكون مقاييس السلوك هي أقوى أداة في GA4 لفصل المستخدمين البشريين عن الروبوتات.

الخطوات:

  1. البحث عن وقت تفاعل منخفض:

    • انتقل إلى Reports > Engagement > Pages and screens.

    :information_source: في GA4، معدل التفاعل هو نسبة الجلسات التي استمرت لأكثر من 10 ثوانٍ، أو تضمنت حدث تحويل، أو تضمنت عرضين لصفحتين على الأقل. هذا رؤية أكثر دقة للجلسة مقارنة بقياس “معدل الارتداد” السابق.

    • يُظهر مقياس Average engagement time المدة التي ظل فيها موقعك في المقدمة للمستخدمين. تقضي الروبوتات عادةً وقتًا قليلًا جدًا في الصفحة. قم بفرز الجدول حسب “Average engagement time” (تصاعديًا) للعثور على الصفحات ذات معدل التفاعل غير العادي المنخفض على الرغم من المشاهدات الكبيرة.

    • ابحث عن الصفحات ذات عدد “Views” مرتفع ولكن معدل “Engagement rate” منخفض جدًا. هذا يشير إلى أن المستخدمين يهبطون على الصفحة ويغادرون فورًا، وهو سلوك شائع للروبوتات.

    :information_source: إذا لم تظهر عمود “Engagement rate”، فستحتاج إلى إضافته. انقر على أيقونة القلم (تخصيص التقرير) في الزاوية العلوية اليمنى، وحدد “Metrics”، وأضف “Engagement rate” إلى التقرير. تذكر حفظ التغييرات.

  2. فحص صفحات الهبوط:

    • انتقل إلى Reports > Engagement > Landing page.

    • في التنقل الأيسر، انتقل إلى Reports > Engagement > Landing page. ابحث عن الصفحات ذات عدد كبير من New users ولكن مع Average engagement time منخفض للغاية. يشير هذا النمط إلى حركة مرور آلية تضرب نقاط دخول محددة في موقعك وتغادر فورًا.

4. ما لا يمكن أن يخبرك به Google Analytics :frowning:

  • عناوين IP: مثل Google Search Console، لا يقوم Google Analytics بالإبلاغ عن عناوين IP للمستخدمين. يمكن العثور على هذه المعلومات فقط في سجلات الخادم (server logs). يُعد تحليل سجلات الخادم أمرًا حاسمًا لحظر عناوين IP الخبيثة.

الخاتمة

بينما يمكن أن يكون Google Analytics مفيدًا في تحديد أنماط حركة المرور المشبوهة، فإن إبطاء أو حظر الزواحف غير المرغوب فيها في منتدى Discourse يتطلب تعديل بعض إعدادات الزواحف الموجودة تحت Admin > Config > Security.

يقوم Discourse بالفعل بحظر عدة زواحف عدوانية افتراضيًا (mauibot, semrushbot, ahrefsbot, blexbot, seo spider) عبر إعداد Blocked crawler user agents. بالنسبة للروبوتات الإضافية التي تختار حظرها تمامًا، أضف وكيل المستخدم الخاص بها إلى هذه القائمة.

بالنسبة للروبوتات الأقل عدوانية ولكنها تستهلك الموارد بكثافة، يمكنك إضافتها إلى Slow down crawler user agents لتقليل سرعة الزحف الخاصة بها دون حظرها بالكامل. افتراضيًا، يقوم هذا بالفعل بتحديد معدل الروبوتات الشائعة (gptbot, claudebot, anthropic-ai, brightbot). يمكنك إدارة معدل الإبطاء من خلال إعداد الموقع Slow down crawler rate، الذي يتحكم في عدد الثواني بين الطلبات المسموح بها (الافتراضي: 60 ثانية).

هناك أيضًا إعداد Allowed crawler user agents، الذي يعمل كقائمة مسموح بها صارمة. إذا أضفت أي وكلاء مستخدمين إلى هذه القائمة، سيتم حظر جميع الزواحف الأخرى. استخدم هذا فقط إذا كنت تريد تقييد موقعك لمجموعة محددة من الزواحف.

:warning: كن حذرًا للغاية عند إجراء تعديلات على هذه الإعدادات. على سبيل المثال، قام بعض مالكي المواقع بحظر جميع حركة المرور من محركات البحث المشروعة عن طريق سوء تكوين هذا الإعداد.

أخيرًا، تذكر أن هذه التدابير ليست مضمونة بنسبة 100%. تتطور الزواحف باستمرار وقد لا تكون ملتزمة بالقواعد؛ فقد يغيرون سلاسل وكيل المستخدم الخاص بهم أو يوزعون الطلبات عبر عناوين IP متعددة لتجاوز هذه الحدود. لذلك، بينما يمكن لهذه الإعدادات توفير خط دفاع قوي، يجب عليك مواصلة مراقبة تحليلاتك وسجلات الخادم بحثًا عن أنماط جديدة أو غير عادية.


  1. Known bot-traffic exclusion - Analytics Help ↩︎

  2. Referrer spam - Wikipedia ↩︎