Le forum OpenAI a du mal à gérer le volume d’utilisateurs qui ne formatent pas leur code. L’un des habitués de la communauté a soulevé ce point dans le salon.
Il est déjà possible de publier des explications d’IA, de modifier les heures, de relire… bien sûr, rien de tout cela ne se produit exactement sur le texte publié, mais quand même. Il ne s’agit que d’une modification du même principe ![]()
Un plugin qui permet à un groupe d’ajouter trois astérisques avant et après une zone choisie.
J’essaierais moi-même, mais c’est hébergé.
Ouais… aucun bonheur à installer des plugins.
Nous pourrions créer une automatisation qui fait simplement cela
Quelque chose comme si vous avez 8/10 de confiance que le code source doit être formaté, formatez-le
Il y a aussi le composant thématique qui demande aux gens de formater le code que nous pourrions installer
Nous avons beaucoup de personnes qui semblent être nouvelles dans le codage en général, et certaines d’entre elles font de bons efforts.
Parfois, ce sont de petites choses, comme l’utilisateur qui oublie (ou ne sait pas comment) définir la langue
<hello>
<hello>
parfois, ils collent du code qui contient des backticks qui finissent par ne pas s’échapper correctement, alors ils abandonnent, je suppose (je n’ai pas pu trouver l’exemple auquel je pensais maintenant)
Dans ces cas, ce n’est probablement pas très utile, et à mon avis, l’intégration des nouveaux utilisateurs devrait être aussi facile que possible (c’est probablement déjà écrasant tel quel)
L’idée de donner aux utilisateurs expérimentés un bouton serait de contrôler le coût/l’utilisation de l’inférence avec un modèle plus puissant si cela pose un problème ou une préoccupation.
Quoi qu’il en soit, merci d’avoir pris cela en considération !
Une chose intéressante que nous pourrions faire assez facilement est de permettre à certains groupes d’accéder à certaines fonctionnalités « d’aide IA » sur les publications.
Ensuite, nous pourrions ajouter une tâche « d’aide IA » ici et la débloquer pour les TL3 sur votre forum.
Cela peut bien fonctionner, le seul inconvénient est qu’il doit générer beaucoup de jetons, ce qui peut être extrêmement lent.
Idéalement, nous devrions apprendre à l’aide à échanger des « diffs » afin qu’elle puisse générer beaucoup moins de jetons dans les cas où il y a beaucoup de code source.
Eh bien. OpenAI dispose d’une fonctionnalité « Predicted Outputs » qui serait parfaite pour ce cas d’utilisation, je crois :
(Je soupçonne que c’est ainsi que fonctionne leur outil Canvas)
J’apprécie que ce soit peut-être quelque chose de spécifique à OpenAI pour le moment, mais d’autres suivront sans aucun doute.
Pas tout à fait, je l’ai testé et c’est cher et certainement pas parfait :
Je dirais qu’une approche basée sur la « différence » a probablement le plus de chances de fonctionner.
Quelque chose comme ceci pourrait fonctionner (sortie JSON à la recherche de marqueurs) Crafting Concise Prompts for Markdown Formatting - AI Conversation - Discourse Meta
C’est malheureux. Je vois que vous avez partagé vos commentaires avec OpenAI
. Cela semble certainement être une fonctionnalité immature qui ne répond pas encore aux attentes (ahem)
Nous pourrions faire quelque chose comme ça avec un triage de persona et un outil personnalisé
Triage de persona (gpt 4o mini) → outil personnalisé → llm pour corriger (gpt 4o) → api pour soumettre la modification
Le défi cependant est de savoir à quel point nous sommes à l’aise de permettre au llm d’appliquer la modification sans aucune hallucination ?
Une possibilité pourrait être de faire en sorte que la correction du llm renvoie 2 numéros de ligne (où le code commence et où il se termine) et d’utiliser ensuite ces informations pour ajouter des backticks, de sorte qu’il y ait beaucoup moins de risque de destruction.
J’y réfléchirai davantage, mais je pense que quelque chose est réalisable ici.
