Par défaut, le fichier robots.txt contient l’entrée suivante :
User-agent: *
# ...
Disallow: /u
Cette configuration bloque l’image destinée aux cartes Twitter. La vérification des cartes de divers forums sur le validateur de Twitter n’affiche pas le logo et indique l’avertissement suivant :
L’URL de l’image forum.[…].org/uploads/[…].png spécifiée par la balise métadonnée ‘twitter:image’ peut être restreinte par le fichier robots.txt du site, ce qui empêchera Twitter de la récupérer.
Le problème est que le chemin /uploads commence également par un u et est donc pris en charge par la règle robots.txt.
Je sais que le fichier robots.txt peut être remplacé, mais je pense qu’il serait bon de modifier la valeur par défaut. Malheureusement, je ne connais pas suffisamment le code pour créer une demande d’extraction.
Lors du remplacement, gardez à l’esprit que Twitter vérifie le fichier robots.txt moins souvent que le code HTML réel de la page, il faut donc quelques heures pour que les modifications soient prises en compte.
Oui, cela permet au moins aux cartes Twitter de fonctionner. J’espère que cela n’aura pas d’effets secondaires indésirables.
Vous pouvez ouvrir le paramètre « Autoriser l’indexation dans robots.txt » et cliquer sur « Remplacer robots.txt ». Ensuite, repérez la ligne Disallow: /u et ajoutez une barre oblique à la fin, de sorte qu’elle devienne Disallow: /u/. Il faudra quelques heures à Twitter pour prendre en compte la modification.
Il semble que ce problème (voir ce fil de discussion) ait déjà été rencontré par le passé avant d’être réintroduit.
Dans ce commit, les règles robots avec le slash ont été supprimées car on pensait qu’elles n’étaient plus nécessaires. Plus tard, dans ce commit, elles ont été réintroduites, mais sans le slash à la fin.