Empêcher les robots d'indexation d'accéder à un site de préproduction

Un client disposant d’un site de préproduction vient de s’inquiéter du fait que son site pourrait être exploré par un robot d’indexation. (Il faudrait qu’un robot cherche activement leur domaine, mais si un robot tombait par hasard sur un lien vers le site, alors le site pourrait être exploré.)

Les solutions pour cela consistent bien sûr à activer allow_index_in_robots_txt et/ou login_required, mais cela nécessiterait de se souvenir de les réinitialiser à chaque fois qu’une sauvegarde du site de production est restaurée sur le site de préproduction.

Aucune de ces deux paramètres n’est shadowed by global.

Les solutions que j’ai actuellement sont de faire en sorte que app.yml modifie site_settings.yml pour ajouter shadowed_by_global à l’une de ces variables, ou de créer un plugin qui les définit.

Est-ce que j’oublie quelque chose ?

2 « J'aime »

Il est très probable que shadowed_by_global soit remplacé par « chaque paramètre peut être masqué » très prochainement. :crossed_fingers:

5 « J'aime »