Le re-cuisson de tous les messages est parfois une action recommandée pour diverses raisons.
Après ma propre expérience d’une re-cuisson qui a soulevé des problèmes et vu/anticipé d’autres problèmes potentiels, j’aimerais savoir comment les éviter.
Si je re-cuit mes 2 millions de messages, cela déclenchera trop de requêtes vers Youtube et mon IP sera mise sur liste noire, empêchant Discourse de générer des aperçus.
Si les onebox (avec titres, miniatures, extraits copiés dans la base de données Discourse - champ “cooked”) dont les URL d’origine sont cassées ou redirigées, il semble que les onebox se casseront et que nous perdrons ces informations.
J’ai décidé d’arrêter le support de Facebook (et donc d’Instagram à ma connaissance) sur mes forums pour plusieurs raisons. Si je re-cuit tous mes messages, je suppose que tous les liens qui étaient auparavant correctement oneboxés se casseront. Est-ce exact ?
Il me semble que nous avons besoin d’une amélioration pour la refonte, afin d’être plus prudents
limitation de débit sur les sites sélectionnés ou peut-être sur tous les sites
hériter de la boîte de prévisualisation d’origine si la nouvelle récupération échoue pour une raison quelconque
En d’autres termes, je pense que nous avons besoin d’une refonte non dommageable, du moins comme option sélectionnable.
(Il y aura certaines communautés Discourse qui accorderont de l’importance à un 404 à jour, ou qui n’accorderont aucune importance aux anciens messages, mais il y aura aussi des communautés qui voudront très fortement préserver les anciens fils de discussion intacts.)
Y a-t-il une quelconque valeur à recharger automatiquement le contenu d’un tweet ? Je serais d’accord avec le fait que le rebake évite de recharger le contenu d’une boîte, sauf si une boîte était cochée.
C’est une bonne idée - c’est plus robuste et moins susceptible de tomber sous le coup des limitations de débit. Laissez toutes les oneboxes tranquilles, sauf indication contraire.
Merci d’avoir posté cela. Cela pourrait avoir un impact sur quelque chose sur lequel je travaille. Avez-vous une idée du nombre de requêtes nécessaires pour déclencher la limite ?
En consultant la documentation de l’API Youtube, il semble qu’ils autorisent jusqu’à 10 000 requêtes GET par 24 heures, mais cela concerne les requêtes effectuées avec une clé API : YouTube Data API Overview | Google for Developers. Il n’est pas clair pour moi comment les limites de débit pour les requêtes API non authentifiées afin d’extraire les images d’aperçu vidéo sont limitées.
J’ai résolu le problème en utilisant Onebox Assistant sans aucune API. Il suffisait d’activer le plugin. Je ne sais pas comment cela a résolu mon problème. Je ne sais pas non plus si cela fonctionnerait de nos jours.