Ferramenta de moderação para formatação de código com IA

O fórum da OpenAI está lutando com o volume de usuários que não formatam seu código. Um dos “Regulares” da comunidade levantou isso no Lounge.

7 curtidas

Já existe a possibilidade de publicar explicações de IA, alterar horários, revisar textos… claro, nada disso acontece exatamente no texto publicado, mas ainda assim. Esta é apenas uma modificação do mesmo princípio :smirking_face:
Um plugin que permite a um grupo adicionar três asteriscos antes e depois de uma área escolhida.

4 curtidas

Eu tentaria resolver isso sozinho, mas está hospedado.

2 curtidas

Sim… nenhuma felicidade em instalar plugins.

2 curtidas

Poderíamos criar uma automação que faça apenas isso

Algo como, se você tiver 8/10 de confiança de que o código-fonte precisa de formatação, basta formatá-lo

Há também o componente de tema que pede às pessoas para formatar código, o que poderíamos instalar

7 curtidas

Temos muitas pessoas que parecem ser novas em codificação em geral, e algumas delas fazem um bom esforço.

Às vezes, são pequenas coisas, como o usuário esquecendo (ou não sabendo como) definir a linguagem

<hello>
<hello>

às vezes eles colam código que contém crases que acabam não escapando corretamente, então eles simplesmente desistem, suponho (eu não consegui encontrar o exemplo em que estava pensando agora)

Nesses casos, provavelmente não é super útil, e na minha opinião, integrar novos usuários deve ser o mais fácil possível (já é provavelmente avassalador como está)


A ideia de dar aos usuários seniores um botão seria controlar o custo/uso de inferência com um modelo mais poderoso, se isso for um problema ou preocupação.

De qualquer forma, obrigado por considerar isso!

5 curtidas

Uma coisa interessante que poderíamos fazer com bastante facilidade é permitir que certos grupos acessem determinados recursos de "AI Helper" em postagens.

Então, poderíamos adicionar uma tarefa de "AI Helper" aqui e desbloqueá-la para TL3 em seu fórum.

Isso pode funcionar muito bem, a desvantagem é que ele precisa gerar muitos tokens, então pode ser extremamente lento.

Idealmente, precisaríamos ensinar o helper a negociar em "diffs" para que ele possa gerar significativamente menos tokens em casos onde há muito código-fonte.

5 curtidas

Bem. A OpenAI tem um recurso de “Predicted Outputs” que seria perfeito para este caso de uso, acredito:

(Suspeito que é assim que funciona a ferramenta Canvas deles)

Aprecio que isso possa ser um tanto específico da OpenAI no momento, mas sem dúvida outros seguirão.

3 curtidas

Não exatamente, testei e é caro e certamente não é perfeito:

Eu diria que uma abordagem baseada em “diff” provavelmente tem a maior chance de funcionar.

Algo como isso pode funcionar (saída JSON procurando por marcadores) Crafting Concise Prompts for Markdown Formatting - AI Conversation - Discourse Meta

5 curtidas

Isso é lamentável. Vejo que você compartilhou seu feedback com a OpenAI :+1:. Definitivamente parece um recurso imaturo que ainda não está à altura do que promete (ahem)

1 curtida

Poderíamos fazer algo assim com triagem de persona e uma ferramenta personalizada

Triagem de persona (gpt 4o mini) → ferramenta personalizada → llm para corrigir (gpt 4o) → api para enviar edição

O desafio, no entanto, é o quão confortáveis estamos em permitir que o llm aplique a edição sem alucinações?

Uma possibilidade seria fazer com que a correção do llm retorne 2 números de linha (onde o código começa e onde termina) e, em seguida, usar essa informação para adicionar crases, dessa forma há muito menos risco de destruição.

Pensarei mais sobre isso, mas acho que algo é viável aqui.

1 curtida