Existe-t-il un moyen d'empêcher le web scraping

Nous partageons du matériel d’étude sur notre forum (nous résolvons la question et publions une réponse détaillée) et quelqu’un essaie de gratter le contenu de notre forum pour le publier sur son site Web. Existe-t-il un moyen d’empêcher ce comportement ?

Si le site web est public, il n’y a aucun moyen de les arrêter. Parce qu’il y aura toujours des solutions de contournement.

Il appartient à l’opérateur du site web de protéger les zones qui ne devraient pas être accessibles au grand public. Je travaillerais avec les droits et groupes d’utilisateurs pour Discourse. Cependant, cela nécessite une structure de site bien pensée.

Vous pouvez également bloquer l’adresse IP des visiteurs indésirables. Mais peu importe ce que vous avez l’intention de faire, ce ne sera qu’une solution d’urgence.

Si vous ne voulez pas partager vos connaissances, vous n’avez que trois options :

  1. communauté fermée / sur invitation uniquement
  2. intenter une action en justice contre la ou les personnes.
  3. proposer du contenu payant et bloquer des zones.
3 « J'aime »

Vous pourriez également modifier les autorisations de catégorie pour exiger que les utilisateurs TL0 et supérieurs puissent voir, ce qui interdira aux anonymes/robots d’accéder à ces catégories et aux sujets associés.

5 « J'aime »

This topic was automatically closed 30 days after the last reply. New replies are no longer allowed.