Las reglas genéricas en "robots.txt" no son detectadas por Googlebot

Lo he movido a Support, gracias por tu maravillosamente redactado informe de error aquí.

Nos ha llevado mucho tiempo ajustar nuestras reglas para mantener a Google contento, la etiqueta x-robots-tag noindex tiene un soporte desigual pero es un estándar de la industria. El problema de simplemente prohibir el rastreo era que, por alguna razón, bajo ciertas condiciones, las páginas podían terminar en el índice de Google y luego no había una manera fácil de eliminarlas porque el rastreo estaba prohibido, un problema de huevo y gallina.