Essayer les nouveaux modèles d'IA

Bonjour :waving_hand:

Je crée ce sujet pour partager mes expériences avec les nouveaux modèles d’IA utilisés sur Discourse.

J’ai configuré il y a quelques jours grok-2-1212 pour les résumés de sujets. Cela fonctionne très bien. La détection de la langue et la qualité sont suffisantes. Je l’ai aussi essayé avec un bot IA, mais il a échoué la plupart du temps, je suppose qu’il ne peut pas encore bien gérer les outils.

J’ai également essayé Gemini Flash 2 pour le bot IA. Il fonctionne rapidement et fournit de bonnes réponses, mais parfois il semble qu’il ne puisse pas bien gérer les outils et que la réponse soit erronée. Parfois, il s’agit d’un simple problème de formatage markdown, parfois il ne peut pas effectuer de recherche. Sur mon forum, il dit la plupart du temps qu’il n’a rien trouvé sur le forum, mais je sais qu’il y a plus de sujets sur ce sujet…

4 « J'aime »

Concernant le problème de recherche, pensez-vous que cela pourrait être lié au fait que l’IA n’indexe pas entièrement le contenu du forum ou y a-t-il une inadéquation dans la compréhension des requêtes ?

2 « J'aime »

Je n’en ai aucune idée. La plupart du temps, il ne recherche rien « » ou échoue avec un délai d’attente… mais parfois, il effectue la recherche correctement et lie les bons sujets. Ce serait bien, je pense, mais c’est encore très expérimental.

1 « J'aime »

Avez-vous essayé les outils xml ? J’ai trouvé que sur grok, ils fonctionnent assez bien.

3 « J'aime »

Merci, j’ai essayé maintenant. Oui, ça semble mieux, le problème se produit principalement maintenant lorsque je crée une nouvelle conversation. Elle commence en anglais par quelque chose comme : Je recherche… sur nomdusite… et arrête de répondre. Parfois, elle continue la réponse après la phrase anglaise Je recherche… dans la langue hongroise correcte et ajoute une bonne réponse. Cependant, si je réponds au grok response après cela dans la conversation, cela fonctionne très bien.

2 « J'aime »

C’est vraiment intéressant, j’aimerais bien autoriser des exemples d’“ancrage” comme option pour les personas, cela pourrait totalement résoudre ce problème.

2 « J'aime »

Bingo ! Mais pensez-vous que cela ralentira les choses, surtout avec beaucoup de données ? Cela pourrait-il affecter les temps de réponse pour les requêtes d’IA ou les résultats de recherche, ou tout va bien ?

1 « J'aime »

Le gros problème des exemples est la « contamination »

Le modèle apprend la forme, mais peut aussi penser à tort qu’un utilisateur a dit quelque chose qu’il n’a pas dit.

Idéalement, la création soignée de messages système peut faire l’affaire, ce serait ma première option.

Les exemples dans un message système peuvent entraîner moins de fuites car il peut être plus clair pour un modèle qu’il ne s’agit que d’un exemple.

Une chose minimale que je recommanderais Don, c’est d’écrire votre message système en hongrois, cela pourrait aider.

Peut-être même essayer de donner un ou deux exemples d’outils XML dans le message système ?

4 « J'aime »

Cela semble vraiment bien, merci de partager : )

J’ai essayé mais le même résultat avec grok-2-1212, puis je suis passé à grok-beta et cela fonctionne parfaitement, mais cela fonctionne aussi avec un message système en anglais…

4 « J'aime »