Il forum di OpenAI sta lottando con il volume di utenti che non formattano il proprio codice. Uno dei Regular della community ha sollevato questo problema nella Lounge.
C’è già la possibilità di pubblicare spiegazioni IA, cambiare orari, correggere… certo, nessuna di queste avviene esattamente sul testo pubblicato, ma comunque. Questa è solo una modifica dello stesso principio ![]()
Un plugin che consente a un gruppo di aggiungere tre asterischi prima e dopo un’area scelta.
Proverei io stesso, ma è ospitato.
Sì… nessuna felicità nell’installare plugin.
Potremmo creare un’automazione che faccia semplicemente questo
Qualcosa come se avessi l’8/10 di confidenza che il codice sorgente necessiti di formattazione, formattalo
C’è anche il componente del tema che chiede alle persone di formattare il codice che potremmo installare
Abbiamo molte persone che sembrano nuove alla programmazione in generale, e alcune di loro fanno un buon tentativo.
A volte sono piccole cose, come l’utente che dimentica (o non sa come) impostare la lingua
<hello>
<hello>
a volte incollano codice che contiene backtick che finiscono per non essere sfuggiti correttamente, quindi suppongo che si arrendano (non riesco a trovare l’esempio a cui stavo pensando al momento)
In questi casi, probabilmente non è molto utile, e secondo me l’inserimento di nuovi utenti dovrebbe essere il più semplice possibile (è probabile che sia già opprimente così com’è)
L’idea di dare agli utenti senior un pulsante sarebbe quella di controllare i costi/l’utilizzo dell’inferenza con un modello più potente, se questo è un problema o una preoccupazione.
Comunque, grazie per aver preso in considerazione questo aspetto!
Una cosa interessante che potremmo fare abbastanza facilmente è consentire a determinati gruppi l’accesso a determinate funzionalità di "AI Helper" sui post.
Quindi potremmo aggiungere un’attività "AI Helper" qui e sbloccarla per TL3 sul tuo forum.
Questo può funzionare abbastanza bene, lo svantaggio però è che deve generare molti token, quindi può essere estremamente lento.
Idealmente dovremmo insegnare all’helper a scambiare "diff" in modo che possa generare significativamente meno token nei casi in cui c’è molto codice sorgente.
Bene. OpenAI ha una funzionalità “Predicted Outputs” che sarebbe perfetta per questo caso d’uso, credo:
(Sospetto che sia così che funziona il loro strumento Canvas)
Apprezzo che al momento possa essere piuttosto specifico di OpenAI, ma senza dubbio altri seguiranno.
Non proprio, l’ho testato ed è costoso e certamente non perfetto:
Direi che un approccio basato su “diff” ha probabilmente le maggiori possibilità di funzionare.
Qualcosa del genere potrebbe funzionare (output JSON alla ricerca di marcatori) Crafting Concise Prompts for Markdown Formatting - AI Conversation - Discourse Meta
È un peccato. Vedo che hai condiviso il tuo feedback con OpenAI
. Sembra decisamente una funzionalità immatura che non è ancora all’altezza delle aspettative (eufemismo).
Potremmo fare qualcosa di simile con il triage delle persone e uno strumento personalizzato
Triage delle persone (gpt 4o mini) → strumento personalizzato → llm per correggere (gpt 4o) → api per inviare la modifica
La sfida, tuttavia, è quanto siamo a nostro agio nel consentire all’llm di applicare la modifica senza allucinazioni?
Una possibilità potrebbe essere quella di far sì che la correzione dell’llm restituisca 2 numeri di riga (dove inizia il codice e dove finisce) e quindi utilizzare tali informazioni per aggiungere i backtick, in questo modo c’è molto meno rischio di distruzione.
Ci penserò ulteriormente, ma penso che qualcosa sia fattibile qui.
