robots.txt predeterminado bloquea imágenes de Twitter Card

De forma predeterminada, el archivo robots.txt contiene la siguiente entrada:

User-agent: *
# ...
Disallow: /u

Esta configuración bloquea la imagen para las tarjetas de Twitter. Al verificar la tarjeta de varios foros en el validador de Twitter, no se muestra el logotipo y aparece la siguiente advertencia:

La URL de la imagen forum.[…].org/uploads/[…].png especificada por la metatag ‘twitter:image’ puede estar restringida por el archivo robots.txt del sitio, lo que impedirá que Twitter la obtenga.

El problema es que la ruta /uploads también comienza con una u y, por lo tanto, coincide con la regla de robots.txt.

Sé que el archivo robots.txt se puede sobrescribir, pero creo que sería bueno cambiar la configuración predeterminada. Lamentablemente, no conozco el código lo suficiente como para crear una solicitud de extracción (pull request).

Al sobrescribir, tenga en cuenta que Twitter verifica el archivo robots.txt con menos frecuencia que el HTML real de la página, por lo que puede tardar varias horas en ser detectado.

1 me gusta

Encontré el mismo problema y lo publiqué aquí https://meta.discourse.org/t/metatag-may-be-restricted-twitter-card-validator/181169

¿Hay una solución rápida que pueda probar? ¡Gracias!

Sí, al menos hace que las tarjetas de Twitter funcionen. Espero que no tenga efectos secundarios no deseados.

Puedes abrir la configuración “permitir indexación en robots.txt” y hacer clic en “anular robots.txt”. Luego, busca la línea Disallow: /u y añade una barra al final, de modo que quede Disallow: /u/. A Twitter le tomará unas pocas horas detectar el cambio.

2 Me gusta

No estoy seguro de por qué se eliminó la publicación que enlacé. Lo probaré. ¡Gracias por el consejo!

2 Me gusta

Parece que este fue un problema en el pasado (ver este hilo) y luego se reintrodujo.

En este commit, las reglas de robots con barra final se eliminaron porque se pensó que ya no eran necesarias. Más tarde, en este commit, se reintrodujeron pero sin la barra al final.

He preparado una solicitud de extracción rápida y sencilla que debería corregir el archivo robots.txt predeterminado: FIX: Do not block `uploads` path in robots.txt by ByteHamster · Pull Request #12349 · discourse/discourse · GitHub

1 me gusta

¿Qué opinas, @sam?

1 me gusta

No puedo revisar realmente el PR sin un CLA, pero anclar y cambiar /u a /u/ parece razonable y seguro.

2 Me gusta

Lo siento, el CLA ya está firmado :slight_smile:

Lo he fusionado. Probémoslo.

4 Me gusta