Das OpenAI-Forum hat mit der Menge an Benutzern zu kämpfen, die ihren Code nicht richtig formatieren. Einer der Stammgäste der Community hat dies in der Lounge angesprochen.
Es gibt bereits die Möglichkeit, KI-Erklärungen zu veröffentlichen, Zeiten zu ändern, Korrektur zu lesen… klar, nichts davon geschieht exakt richtig beim veröffentlichten Text, aber trotzdem. Dies ist nur eine Modifikation desselben Prinzips ![]()
Ein Plugin, das es einer Gruppe ermöglicht, drei Ticks vor und nach einem ausgewählten Bereich einzufügen.
Ich würde es selbst versuchen, aber es ist gehostet.
Ja… keine Freude, Plugins zu installieren.
Wir könnten eine Automatisierung erstellen, die genau das tut.
So etwas wie: Wenn du eine 8/10 Zuversicht hast, dass Quellcode formatiert werden muss, dann formatiere ihn.
Es gibt auch die Theme-Komponente, die Leute bittet, Code zu formatieren, die wir installieren könnten.
Wir haben viele Leute, die generell neu im Programmieren zu sein scheinen, und einige von ihnen geben sich viel Mühe.
Manchmal sind es Kleinigkeiten, wie dass der Benutzer vergisst (oder nicht weiß, wie man) die Sprache einstellt
<hello>
<hello>
Manchmal fügen sie Code ein, der Backticks enthält, die nicht richtig escaped werden, also geben sie es wohl auf (ich konnte das Beispiel, das ich mir vorgestellt habe, gerade nicht finden)
In diesen Fällen ist es wahrscheinlich nicht sehr hilfreich, und meiner Meinung nach sollte die Einarbeitung neuer Benutzer so einfach wie möglich sein (es ist wahrscheinlich schon überwältigend genug).
Die Idee, erfahrenen Benutzern einen Button zu geben, wäre, die Inferenzkosten/Nutzung mit einem leistungsfähigeren Modell zu steuern, falls dies ein Problem oder eine Sorge darstellt.
Auf jeden Fall danke für die Berücksichtigung!
Eine interessante Sache, die wir recht einfach tun könnten, ist, bestimmten Gruppen den Zugriff auf bestimmte „KI-Helfer“-Funktionen bei Beiträgen zu ermöglichen.
Dann könnten wir hier eine „KI-Helfer“-Aufgabe hinzufügen und sie für TL3 in Ihrem Forum freischalten.
Das kann recht gut funktionieren, der Nachteil ist jedoch, dass viele Tokens generiert werden müssen, was extrem langsam sein kann.
Idealerweise müssten wir dem Helfer beibringen, mit „Diffs“ zu handeln, damit er in Fällen, in denen viel Quellcode vorhanden ist, deutlich weniger Tokens generieren kann.
Nun. OpenAI hat eine Funktion namens „Predicted Outputs“, die meiner Meinung nach perfekt für diesen Anwendungsfall wäre:
(Ich vermute, dass dies die Funktionsweise ihrer Canvas-Tools ist)
Ich schätze, das ist im Moment etwas OpenAI-spezifisch, aber zweifellos werden andere folgen.
Nicht ganz, ich habe es ausprobiert und es ist teuer und sicherlich nicht perfekt:
Ich würde sagen, ein “Diff”-basierter Ansatz hat wahrscheinlich die besten Erfolgsaussichten.
Etwas wie das hier könnte funktionieren (JSON-Ausgabe auf der Suche nach Markern) Crafting Concise Prompts for Markdown Formatting - AI Conversation - Discourse Meta
Das ist bedauerlich. Ich sehe, dass Sie Ihr Feedback mit OpenAI geteilt haben
. Es scheint definitiv eine unreife Funktion zu sein, die ihrem Ruf (hüstel) noch nicht gerecht wird.
Wir könnten so etwas mit Persona-Triage und einem benutzerdefinierten Tool umsetzen
Persona-Triage (gpt 4o mini) → benutzerdefiniertes Tool → LLM zur Korrektur (gpt 4o) → API zur Einreichung der Bearbeitung
Die Herausforderung besteht jedoch darin, wie wohl wir uns dabei fühlen, dem LLM die Bearbeitung ohne Halluzinationen zu gestatten?
Eine Möglichkeit wäre, dass der LLM zur Korrektur 2 Zeilennummern zurückgibt (wo der Code beginnt und wo er endet) und diese Informationen dann verwendet werden, um Backticks hinzuzufügen. Dadurch ist das Risiko von Zerstörung viel geringer.
Ich werde weiter darüber nachdenken, aber ich denke, hier ist etwas machbar.
