Nous pourrions faire quelque chose comme ça avec un triage de persona et un outil personnalisé
Triage de persona (gpt 4o mini) → outil personnalisé → llm pour corriger (gpt 4o) → api pour soumettre la modification
Le défi cependant est de savoir à quel point nous sommes à l’aise de permettre au llm d’appliquer la modification sans aucune hallucination ?
Une possibilité pourrait être de faire en sorte que la correction du llm renvoie 2 numéros de ligne (où le code commence et où il se termine) et d’utiliser ensuite ces informations pour ajouter des backticks, de sorte qu’il y ait beaucoup moins de risque de destruction.
J’y réfléchirai davantage, mais je pense que quelque chose est réalisable ici.