J’ai activé « AI embeddings enabled » hier soir et le remplissage s’est fait en arrière-plan. Aujourd’hui, j’ai activé « AI embeddings semantic search enabled » et le CPU est monté à 100 constamment avec un énorme retard dans la file d’attente Sidekiq. La recherche a complètement cessé de fonctionner sur le serveur.
J’ai désactivé la recherche sémantique et le serveur est revenu à un CPU normal en quelques minutes avec toute la file d’attente vidée.
J’aimerais en savoir plus sur votre profil « matériel » si vous l’hébergez vous-même ; j’ai pensé faire de même sur mes serveurs, mais je ne suis pas sûr de l’impact. Ceci m’indique anecdotiquement que je devrais attendre ou élaborer un meilleur plan.
Ce moment où Jobs::GenerateEmbeddings est censé prendre quelques secondes à chaque fois, c’est parce que vous effectuez un appel API à un service d’intégration pour obtenir les données. Ce graphique est normal, il montre simplement que quelque chose prend du temps, un autre GPU dans le cloud effectue le travail.
Une augmentation du CPU est très inattendue, peut-être que votre configuration PG a commencé à être extrêmement sollicitée et que l’insertion de 1000 nombres ou plus d’affilée suffit à la pénaliser.
Nous avons besoin de beaucoup plus de données ici pour aider au diagnostic, quelles sont les spécifications du serveur ? Que montrent les graphiques CPU réels, quel processus consomme le CPU, quel service d’intégration utilisez-vous, etc…
Je vois que vous n’avez partagé qu’un graphique de durée des tâches secondaires, et il montre qu’après avoir activé les intégrations (embeddings), Discourse effectuait correctement le remplissage (backfilling) de celles-ci.
Pouvez-vous partager plus d’informations sur votre configuration ? Quel est le fournisseur d’intégrations (embeddings provider) ? S’agit-il d’une API tierce ou l’hébergez-vous vous-même également ? Combien de sujets avez-vous ? Quelles sont les spécifications de la base de données (DB specs) ?
Je suis sur un serveur DO 16 Go de mémoire / 4 vCPUs Intel. J’utilise Open AI text-embedding-3-small.
L’utilisation du CPU est généralement d’environ 50 % ou moins. Voici comment cela s’est passé lorsque j’ai activé la recherche sémantique. Il y a environ 2,5 millions de publications et 250 000 sujets. Je n’ai pas activé les intégrations pour les MP, sinon cela ajouterait 1 million de publications et 100 000 sujets supplémentaires.