Wir könnten so etwas mit Persona-Triage und einem benutzerdefinierten Tool umsetzen
Persona-Triage (gpt 4o mini) → benutzerdefiniertes Tool → LLM zur Korrektur (gpt 4o) → API zur Einreichung der Bearbeitung
Die Herausforderung besteht jedoch darin, wie wohl wir uns dabei fühlen, dem LLM die Bearbeitung ohne Halluzinationen zu gestatten?
Eine Möglichkeit wäre, dass der LLM zur Korrektur 2 Zeilennummern zurückgibt (wo der Code beginnt und wo er endet) und diese Informationen dann verwendet werden, um Backticks hinzuzufügen. Dadurch ist das Risiko von Zerstörung viel geringer.
Ich werde weiter darüber nachdenken, aber ich denke, hier ist etwas machbar.