Como você lida com respostas de IA em sua comunidade?

Depende muito, não é? No exemplo acima, eu ficaria chateado com o autor se a resposta tivesse uma incorreção clara – especialmente uma incorreção que levaria o usuário a problemas maiores. Eu não me importo que as pessoas postem respostas de IA se elas também dedicaram tempo para validar e verificar a adequação e a correção das informações. Melhor ainda se elas concordarem que o conteúdo gerado é semelhante ou melhor do que a forma como elas compartilhariam essa informação de qualquer maneira.

Se, por outro lado, você simplesmente jogou algo em um LLM, copiou e colou a resposta, e espera que eu, como leitor do seu tópico, descubra se esse conteúdo está correto, então eu não ficarei feliz. Você não está apenas desperdiçando meu tempo apresentando informações falsas como corretas, mas também está diminuindo a confiabilidade da comunidade em geral – ou pelo menos a confiabilidade das suas próprias respostas futuras.

Olhando para o futuro, suspeito que muitas pessoas com boas intenções se afastarão do uso de LLMs em fóruns nos próximos anos, e aqueles que permanecerem serão maus atores, ou pessoas que simplesmente não entendem de fóruns. É puramente anedótico, mas eu uso LLMs diariamente há cerca de 2 anos e estou me voltando cada vez mais para conteúdo autogerado. Ontem, eu queria escrever um post de blog no qual eu não estava super investido. Decidi experimentar o GPT, mas não importa o que eu fizesse, sempre soava como GPT e eu odiava isso. Então, tentei o Claude e, apesar de trabalhar com ele por uma hora, o conteúdo nunca soou como algo escrito por uma pessoa real e viva. Então, depois de cerca de 3 horas no total, eu descartei tudo e escrevi eu mesmo em cerca de uma hora.

O ponto dessa história é dizer – pelo menos para mim – que o conteúdo autogerado está se mostrando cada vez mais recompensador, não importa o quão bons os modelos fiquem. Espero realmente que outras pessoas que usam LLMs também cheguem a esse estágio nos próximos 2-3 anos. Se isso acontecer, as respostas de IA em fóruns serão apenas de maus atores, ou de pessoas com boas intenções que não sabem o suficiente. De qualquer forma, essa situação torna o conteúdo muito mais fácil de lidar: você pode banir os maus atores, educar aqueles com boas intenções e ter uma política de moderação de “conteúdo de IA é proibido, exceto se você digeriu claramente o conteúdo que está postando E concorda totalmente que seu conteúdo representa sua opinião e compreensão sobre o assunto E o conteúdo expressa sua opinião de maneira igual ou mais digerível do que você mesmo geraria.” ou algo nessa linha.

6 curtidas