J’ai déjà un script d’importation personnalisé écrit en Ruby. Il fonctionne et ajoute tous les sujets, cependant il est trop rapide. Cela conduit le serveur à récupérer beaucoup d’images de services externes comme imgur lors de la cuisson des publications.
Quelle serait la meilleure façon de ralentir cela ? Je veux dire, la façon triviale serait de laisser le processus d’importation dormir un peu entre les publications. Mais cela entraînerait un script potentiellement long (étant donné la quantité d’images et la limite de débit d’imgur, environ 3 jours). Existe-t-il un autre moyen, comme importer tous les sujets en même temps mais en disant à Discourse de cuire seulement un nombre spécifique de publications par minute ? De cette façon, les sujets sont créés immédiatement mais le HTML est construit de manière asynchrone.
Vous pouvez simplement refaire la cuisson des publications plus tard. Tous les quelques jours, vous pouvez refaire la cuisson des mauvaises publications.
Existe-t-il un moyen de trouver les mauvais messages afin que je puisse reconstruire spécifiquement ceux-ci ? Je sais que je peux tout reconstruire via rake. Mais cela commencera alors toujours par les mêmes messages et atteindra la limite de débit avant d’atteindre les mauvais.
Après d’autres tests, j’ai vraiment besoin d’empêcher d’atteindre la limite de débit en premier lieu. Avec la quantité d’images intégrées, il semble que l’adresse IP finisse par être mise sur liste noire pendant au moins quelques jours (cela fait 4 jours que j’ai fait du “baking” sur cette machine, et elle est toujours sur liste noire). Je ne peux donc pas simplement refaire le “baking” des posts plus tard.
Avez-vous une idée sur la façon d’étaler le “baking” sur une période plus longue en premier lieu ?