Moderationstool zum Formatieren von Code mit KI

Das OpenAI-Forum hat mit der Menge an Benutzern zu kämpfen, die ihren Code nicht richtig formatieren. Einer der Stammgäste der Community hat dies in der Lounge angesprochen.

7 „Gefällt mir“

Es gibt bereits die Möglichkeit, KI-Erklärungen zu veröffentlichen, Zeiten zu ändern, Korrektur zu lesen… klar, nichts davon geschieht exakt richtig beim veröffentlichten Text, aber trotzdem. Dies ist nur eine Modifikation desselben Prinzips :smirking_face:
Ein Plugin, das es einer Gruppe ermöglicht, drei Ticks vor und nach einem ausgewählten Bereich einzufügen.

4 „Gefällt mir“

Ich würde es selbst versuchen, aber es ist gehostet.

2 „Gefällt mir“

Ja… keine Freude, Plugins zu installieren.

2 „Gefällt mir“

Wir könnten eine Automatisierung erstellen, die genau das tut.

So etwas wie: Wenn du eine 8/10 Zuversicht hast, dass Quellcode formatiert werden muss, dann formatiere ihn.

Es gibt auch die Theme-Komponente, die Leute bittet, Code zu formatieren, die wir installieren könnten.

7 „Gefällt mir“

Wir haben viele Leute, die generell neu im Programmieren zu sein scheinen, und einige von ihnen geben sich viel Mühe.

Manchmal sind es Kleinigkeiten, wie dass der Benutzer vergisst (oder nicht weiß, wie man) die Sprache einstellt

<hello>
<hello>

Manchmal fügen sie Code ein, der Backticks enthält, die nicht richtig escaped werden, also geben sie es wohl auf (ich konnte das Beispiel, das ich mir vorgestellt habe, gerade nicht finden)

In diesen Fällen ist es wahrscheinlich nicht sehr hilfreich, und meiner Meinung nach sollte die Einarbeitung neuer Benutzer so einfach wie möglich sein (es ist wahrscheinlich schon überwältigend genug).


Die Idee, erfahrenen Benutzern einen Button zu geben, wäre, die Inferenzkosten/Nutzung mit einem leistungsfähigeren Modell zu steuern, falls dies ein Problem oder eine Sorge darstellt.

Auf jeden Fall danke für die Berücksichtigung!

5 „Gefällt mir“

Eine interessante Sache, die wir recht einfach tun könnten, ist, bestimmten Gruppen den Zugriff auf bestimmte „KI-Helfer“-Funktionen bei Beiträgen zu ermöglichen.

Dann könnten wir hier eine „KI-Helfer“-Aufgabe hinzufügen und sie für TL3 in Ihrem Forum freischalten.

Das kann recht gut funktionieren, der Nachteil ist jedoch, dass viele Tokens generiert werden müssen, was extrem langsam sein kann.

Idealerweise müssten wir dem Helfer beibringen, mit „Diffs“ zu handeln, damit er in Fällen, in denen viel Quellcode vorhanden ist, deutlich weniger Tokens generieren kann.

5 „Gefällt mir“

Nun. OpenAI hat eine Funktion namens „Predicted Outputs“, die meiner Meinung nach perfekt für diesen Anwendungsfall wäre:

(Ich vermute, dass dies die Funktionsweise ihrer Canvas-Tools ist)

Ich schätze, das ist im Moment etwas OpenAI-spezifisch, aber zweifellos werden andere folgen.

3 „Gefällt mir“

Nicht ganz, ich habe es ausprobiert und es ist teuer und sicherlich nicht perfekt:

Ich würde sagen, ein “Diff”-basierter Ansatz hat wahrscheinlich die besten Erfolgsaussichten.

Etwas wie das hier könnte funktionieren (JSON-Ausgabe auf der Suche nach Markern) Crafting Concise Prompts for Markdown Formatting - AI Conversation - Discourse Meta

5 „Gefällt mir“

Das ist bedauerlich. Ich sehe, dass Sie Ihr Feedback mit OpenAI geteilt haben :+1:. Es scheint definitiv eine unreife Funktion zu sein, die ihrem Ruf (hüstel) noch nicht gerecht wird.

1 „Gefällt mir“

Wir könnten so etwas mit Persona-Triage und einem benutzerdefinierten Tool umsetzen

Persona-Triage (gpt 4o mini) → benutzerdefiniertes Tool → LLM zur Korrektur (gpt 4o) → API zur Einreichung der Bearbeitung

Die Herausforderung besteht jedoch darin, wie wohl wir uns dabei fühlen, dem LLM die Bearbeitung ohne Halluzinationen zu gestatten?

Eine Möglichkeit wäre, dass der LLM zur Korrektur 2 Zeilennummern zurückgibt (wo der Code beginnt und wo er endet) und diese Informationen dann verwendet werden, um Backticks hinzuzufügen. Dadurch ist das Risiko von Zerstörung viel geringer.

Ich werde weiter darüber nachdenken, aber ich denke, hier ist etwas machbar.

1 „Gefällt mir“