O fórum da OpenAI está lutando com o volume de usuários que não formatam seu código. Um dos “Regulares” da comunidade levantou isso no Lounge.
Já existe a possibilidade de publicar explicações de IA, alterar horários, revisar textos… claro, nada disso acontece exatamente no texto publicado, mas ainda assim. Esta é apenas uma modificação do mesmo princípio ![]()
Um plugin que permite a um grupo adicionar três asteriscos antes e depois de uma área escolhida.
Eu tentaria resolver isso sozinho, mas está hospedado.
Sim… nenhuma felicidade em instalar plugins.
Poderíamos criar uma automação que faça apenas isso
Algo como, se você tiver 8/10 de confiança de que o código-fonte precisa de formatação, basta formatá-lo
Há também o componente de tema que pede às pessoas para formatar código, o que poderíamos instalar
Temos muitas pessoas que parecem ser novas em codificação em geral, e algumas delas fazem um bom esforço.
Às vezes, são pequenas coisas, como o usuário esquecendo (ou não sabendo como) definir a linguagem
<hello>
<hello>
às vezes eles colam código que contém crases que acabam não escapando corretamente, então eles simplesmente desistem, suponho (eu não consegui encontrar o exemplo em que estava pensando agora)
Nesses casos, provavelmente não é super útil, e na minha opinião, integrar novos usuários deve ser o mais fácil possível (já é provavelmente avassalador como está)
A ideia de dar aos usuários seniores um botão seria controlar o custo/uso de inferência com um modelo mais poderoso, se isso for um problema ou preocupação.
De qualquer forma, obrigado por considerar isso!
Uma coisa interessante que poderíamos fazer com bastante facilidade é permitir que certos grupos acessem determinados recursos de "AI Helper" em postagens.
Então, poderíamos adicionar uma tarefa de "AI Helper" aqui e desbloqueá-la para TL3 em seu fórum.
Isso pode funcionar muito bem, a desvantagem é que ele precisa gerar muitos tokens, então pode ser extremamente lento.
Idealmente, precisaríamos ensinar o helper a negociar em "diffs" para que ele possa gerar significativamente menos tokens em casos onde há muito código-fonte.
Bem. A OpenAI tem um recurso de “Predicted Outputs” que seria perfeito para este caso de uso, acredito:
(Suspeito que é assim que funciona a ferramenta Canvas deles)
Aprecio que isso possa ser um tanto específico da OpenAI no momento, mas sem dúvida outros seguirão.
Não exatamente, testei e é caro e certamente não é perfeito:
Eu diria que uma abordagem baseada em “diff” provavelmente tem a maior chance de funcionar.
Algo como isso pode funcionar (saída JSON procurando por marcadores) Crafting Concise Prompts for Markdown Formatting - AI Conversation - Discourse Meta
Isso é lamentável. Vejo que você compartilhou seu feedback com a OpenAI
. Definitivamente parece um recurso imaturo que ainda não está à altura do que promete (ahem)
Poderíamos fazer algo assim com triagem de persona e uma ferramenta personalizada
Triagem de persona (gpt 4o mini) → ferramenta personalizada → llm para corrigir (gpt 4o) → api para enviar edição
O desafio, no entanto, é o quão confortáveis estamos em permitir que o llm aplique a edição sem alucinações?
Uma possibilidade seria fazer com que a correção do llm retorne 2 números de linha (onde o código começa e onde termina) e, em seguida, usar essa informação para adicionar crases, dessa forma há muito menos risco de destruição.
Pensarei mais sobre isso, mas acho que algo é viável aqui.
