Ein Kunde mit einer Staging-Umgebung hat Bedenken geäußert, dass seine Seite von Crawlern durchsucht werden könnte. (Ein Crawler müsste zwar aktiv nach seiner Domain suchen, aber falls ein Crawler zufällig auf einen Link zur Seite stößt, könnte die Seite durchsucht werden.)
Die Lösungen hierfür sind natürlich, allow_index_in_robots_txt und/oder login_required zu aktivieren. Dies würde jedoch erfordern, sich zu merken, dass diese Einstellungen jedes Mal zurückgesetzt werden müssen, wenn ein Backup der Produktionsseite auf die Staging-Umgebung wiederhergestellt wird.
Keine dieser Einstellungen ist shadowed by global.
Meine aktuellen Lösungsvorschläge sind, dass app.yml site_settings.yml so anpasst, dass shadowed_by_global zu einer dieser Variablen hinzugefügt wird, oder dass ein Plugin erstellt wird, das diese Einstellungen vornimmt.
Habe ich etwas übersehen?