Question sur la charge extrême / Disk IO / CPU / utilisation mémoire

Bonjour, Récemment, notre instance a reçu davantage de messages de « charge extrême ». Aujourd’hui, cela s’est produit à 9 h 40.

J’ai examiné le journal de notre serveur. Le processeur et la charge semblaient corrects à 9 h 40 :

La mémoire est également très stable tout au long de la journée :

Le pic semblait concerner les entrées/sorties disque et la bande passante sortante/entrante :

Cela m’a conduit à soupçonner qu’il s’agissait de requêtes de robots d’exploration à 9 h 40. Cependant, je ne sais pas s’il existe un moyen de vérifier cela. J’ai examiné la liste des robots d’exploration et le nombre de requêtes ; la plupart proviennent de Google et de Bing, nous ne allons donc certainement pas les bloquer.

Cela m’a amené aux questions suivantes :

  • Existe-t-il un journal où je peux identifier qui accède au site à un moment donné ?
  • Existe-t-il un moyen de faire en sorte que les robots d’exploration étalent leurs requêtes, étant donné qu’il s’agit de « bons » robots ?
  • Ajouter plus de CPU ou de mémoire au serveur aidera-t-il la situation ? Je suis un peu sceptique à ce sujet, car l’utilisation du CPU et de la mémoire n’a pas augmenté. Est-ce qu’une utilisation moyenne de la mémoire de 80 % est trop élevée ?

Nous disposons de 2 vCPU et de 2 Go de mémoire. Nous avons configuré l’instance avec 4 workers Unicorn, ce qui semble correspondre à la quantité de RAM dont nous disposons.

Yes, check /var/discourse/shared/standalone/log/var-log/nginx/access.log.

Yes, the slow down crawler user agents site setting.

Looks like what you had was I/O wait during the 9:40 peak. Increasing RAM may help as more stuff can be kept at cache, but I don’t know if that peak was read or write, as you did cut off the graph legend :upside_down_face:.

That said, if you can afford, increasing the droplet size to the next available size will always help.

2 « J'aime »

Thanks. I checked out the log at 9:40am and the requests look like they come from user actions (consumer browsers) rather than crawlers.

The green peak was read.

Yeah, since it doesn’t look like its crawlers, I think I will trial with the next droplet size and increase RAM from 2gb to 4gb and see if it helps.

It is a little surprising to me that user activity is the cause, because I have always been under the impression that we have fewer active posters in the last 2 years than before. But when I looked at Google Analytics, we do have steadily increase users- perhaps even though posters have decreased, lurkers have increased…

image

Thanks for the pointers. Appreciate it.

1 « J'aime »

It looks like doubling the memory does make a difference, at least from looking at the graphs, especially with the disk i/o and the load spikes.

2 « J'aime »