Tenere i crawler lontani da un sito di staging

Un cliente con un sito di staging ha sollevato preoccupazioni riguardo alla possibilità che il suo sito venga scansionato. (Sarebbe necessario che un crawler cercasse attivamente il loro dominio, ma se per caso un crawler trovasse un link al sito, allora il sito potrebbe essere scansionato.)

Le soluzioni per questo, naturalmente, sono attivare allow_index_in_robots_txt e/o login_required, ma ciò richiederebbe di ricordare di reimpostarli ogni volta che un backup dal sito di produzione viene ripristinato sul sito di staging.

Nessuna di queste impostazioni è shadowed by global.

Le soluzioni che ho attualmente sono far sì che app.yml modifichi site_settings.yml per aggiungere shadowed_by_global a una di queste variabili o creare un plugin che le imposti.

Sto dimenticando qualcosa?

2 Mi Piace

È molto probabile che shadowed_by_global venga sostituito da “ogni impostazione può essere shadowed” molto presto. :crossed_fingers:

5 Mi Piace