Como você lida com respostas de IA em sua comunidade?

Olá a todos!

Estou curioso para saber como outros gerentes de comunidade lidam com respostas de IA em categorias de discussão e perguntas.

Nossa política atual é que o uso de IA é aceitável, desde que você valide a resposta.

Depois de ver algumas respostas como esta, por exemplo, estou começando a pensar que quero criar uma política mais rigorosa contra IA.

Boa pergunta, vou ajudá-lo a chamar a API do Slack para postar uma mensagem em um canal. Veja como fazer:

Requisição Básica da API

Você usará o endpoint chat.postMessage. Aqui está um exemplo simples usando curl:

curl -X POST https://slack.com/api/chat.postMessage \
  -H "Content-Type: application/json" \
  -H "Authorization: Bearer YOUR_SLACK_TOKEN" \
  -d '{
    "channel": "C1234567890",
    "text": "Olá da API do Slack!"
  }'

Etapas de Configuração

1. Obtenha um Token do Slack:

  • Vá para Slack API: Applications | Slack
  • Crie um novo aplicativo ou selecione um existente
  • Navegue até “OAuth & Permissões”
  • Adicione o escopo chat:write em “Bot Token Scopes”
  • Instale/reinstale o aplicativo em seu workspace
  • Copie o “Bot User OAuth Token” (começa com xoxb-)

2. Obtenha o ID do Canal:

  • Clique com o botão direito em um canal no Slack → “Ver detalhes do canal”
  • O ID do canal está na parte inferior (começa com C)
  • Ou use o nome do canal como #geral

Exemplos de Código

Python:

import requests

url = "https://slack.com/api/chat.postMessage"
headers = {
    "Content-Type": "application/json",
    "Authorization": "Bearer YOUR_SLACK_TOKEN"
}
data = {
    "channel": "C1234567890",
    "text": "Olá do Python!"
}

response = requests.post(url, headers=headers, json=data)
print(response.json())

JavaScript (Node.js):

const axios = require('axios');

const url = 'https://slack.com/api/chat.postMessage';
const data = {
  channel: 'C1234567890',
  text: 'Olá do Node.js!'
};

axios.post(url, data, {
  headers: {
    'Content-Type': 'application/json',
    'Authorization': 'Bearer YOUR_SLACK_TOKEN'
  }
})
.then(response => console.log(response.data))
.catch(error => console.error(error));

Opções Adicionais

Você pode aprimorar sua mensagem com:

  • Blocos para formatação rica
  • Anexos para dados estruturados
  • Respostas em tópicos usando thread_ts
  • Menções como <@U12345678>

Gostaria de ajuda com alguma linguagem de programação específica ou formatação de mensagem mais avançada?

Abraços, {user}!

Embora isso possa resolver o problema, eu mesmo poderia ter perguntado à IA para obter essa resposta. Embora o problema ainda não seja generalizado, estou preocupado que estejamos perdendo a personalidade de cada indivíduo na comunidade. A grande coisa sobre a comunidade são as pessoas nela e suas ideias, pensamentos, experiências e palavras únicas.

Muito curioso sobre como outras comunidades lidam com isso! Por favor, compartilhe seus pensamentos!

5 curtidas

Minha política é não usar IA para escrever ou editar posts de fórum. Algo como: queremos ouvir o que você tem a dizer, não o que a IA tem a dizer. Tudo bem colar um texto de IA e depois comentar sobre o que a IA escreveu, desde que você divulgue que é IA acima do conteúdo da IA, por exemplo:

“Perguntei ao ChatGPT sobre ___ e ele disse ___. Aqui está o que eu penso sobre o que o ChatGPT escreveu.”

Eu guardo cuidadosamente a qualidade do conteúdo. Acho que o conteúdo gerado por IA de 2025 parecerá datado em 10 anos, um pouco como os efeitos de filmes antigos que não são mais aceitáveis.

Se as pessoas estão fazendo perguntas e a IA está respondendo, por que elas iriam a um fórum em vez de simplesmente perguntar ao ChatGPT? Acho que o principal valor dos fóruns no futuro é que você poderá obter respostas de humanos em vez de bots.

8 curtidas

Ótimos pontos @j127,

É mais ou menos para onde estávamos inclinados, desde que haja contexto e as palavras dos usuários em torno do conteúdo da IA.

Não quero daqui a alguns meses ver apenas respostas perfeitas geradas por IA em todos os nossos fóruns, então estou tentando antecipar isso agora. Tragam de volta os erros de ortografia :slight_smile:

4 curtidas

Aqui está um ponto a se ter em mente: desencorajar tais práticas pode afastar potenciais novos usuários. Uma possível solução é criar uma categoria para isso e, em seguida, apenas deixá-los colocar o conteúdo lá. Dessa forma, o usuário sente que contribuiu com algo de valor, outros podem linkar para ele, se necessário, em outras partes do fórum, e os usuários que não estão interessados nas postagens de IA podem pular a categoria e todos os links.

A postagem de IA em fóruns de usuários estará aqui daqui para frente. Não vejo nenhuma norma para isso nos próximos anos; semelhante à questão do uso de IA na educação formal.


No entanto, com a nova onda de IA, LLMs e difusão, a única constante é a mudança, então minha resposta sobre isso não deve ser vista como algo gravado em pedra ou algo com o qual eu possa até concordar no futuro.

2 curtidas

Depende muito, não é? No exemplo acima, eu ficaria chateado com o autor se a resposta tivesse uma incorreção clara – especialmente uma incorreção que levaria o usuário a problemas maiores. Eu não me importo que as pessoas postem respostas de IA se elas também dedicaram tempo para validar e verificar a adequação e a correção das informações. Melhor ainda se elas concordarem que o conteúdo gerado é semelhante ou melhor do que a forma como elas compartilhariam essa informação de qualquer maneira.

Se, por outro lado, você simplesmente jogou algo em um LLM, copiou e colou a resposta, e espera que eu, como leitor do seu tópico, descubra se esse conteúdo está correto, então eu não ficarei feliz. Você não está apenas desperdiçando meu tempo apresentando informações falsas como corretas, mas também está diminuindo a confiabilidade da comunidade em geral – ou pelo menos a confiabilidade das suas próprias respostas futuras.

Olhando para o futuro, suspeito que muitas pessoas com boas intenções se afastarão do uso de LLMs em fóruns nos próximos anos, e aqueles que permanecerem serão maus atores, ou pessoas que simplesmente não entendem de fóruns. É puramente anedótico, mas eu uso LLMs diariamente há cerca de 2 anos e estou me voltando cada vez mais para conteúdo autogerado. Ontem, eu queria escrever um post de blog no qual eu não estava super investido. Decidi experimentar o GPT, mas não importa o que eu fizesse, sempre soava como GPT e eu odiava isso. Então, tentei o Claude e, apesar de trabalhar com ele por uma hora, o conteúdo nunca soou como algo escrito por uma pessoa real e viva. Então, depois de cerca de 3 horas no total, eu descartei tudo e escrevi eu mesmo em cerca de uma hora.

O ponto dessa história é dizer – pelo menos para mim – que o conteúdo autogerado está se mostrando cada vez mais recompensador, não importa o quão bons os modelos fiquem. Espero realmente que outras pessoas que usam LLMs também cheguem a esse estágio nos próximos 2-3 anos. Se isso acontecer, as respostas de IA em fóruns serão apenas de maus atores, ou de pessoas com boas intenções que não sabem o suficiente. De qualquer forma, essa situação torna o conteúdo muito mais fácil de lidar: você pode banir os maus atores, educar aqueles com boas intenções e ter uma política de moderação de “conteúdo de IA é proibido, exceto se você digeriu claramente o conteúdo que está postando E concorda totalmente que seu conteúdo representa sua opinião e compreensão sobre o assunto E o conteúdo expressa sua opinião de maneira igual ou mais digerível do que você mesmo geraria.” ou algo nessa linha.

6 curtidas

Geralmente fico um pouco apreensivo quando vejo respostas de IA, e muito mais quando o usuário que as posta:\n- Não credita a IA\n- Faz um copiar e colar direto\n\nMas acho que o que realmente não está certo é se postagens completamente geradas por IA forem marcadas como Soluções. Na verdade, a solução deveria ir para a IA… ou, na verdade, simplesmente não ser dada, apenas um like e um obrigado.\n\n\u003chr /\u003e\n\nAdicionando aqui, se o OP quisesse uma resposta de IA, ele poderia simplesmente ter perguntado ao ChatGPT. Ele não precisa que alguém responda à pergunta que ele fez a colegas humanos com algo da IA.

3 curtidas

Vejo tantas ótimas respostas aqui. Neste exemplo específico, vejo a IA como útil porque é puramente tática. Portanto, ao fazer perguntas às nossas comunidades ou solicitar respostas dos membros, leve em consideração o que é tático versus o que é “sentimento”. Dependendo da estrutura da sua comunidade, pode haver um espaço específico dedicado a perguntas de “como fazer” e outro espaço dedicado a conexões entre pares. Saber o “como fazer” será um lugar onde a IA é bem-vinda e possivelmente recomendada para evitar erros do operador. :slight_smile: É ótimo ter um equilíbrio dentro do seu espaço comunitário, e é isso que faz os membros voltarem.

2 curtidas

Eu acho que o Discourse já tem a seção “como fazer” (ask.discourse.com). Essa é, na verdade, a melhor ferramenta de IA no próprio Discourse que os usuários podem usar sozinhos, para que não precisem que alguém faça isso por eles. Todo o resto deveria ser o espaço de “pares”, onde os humanos interagem, fazem mais perguntas do que fornecem respostas e discordam felizmente para extrair alguma verdade aqui e ali.

Como lindamente dito aqui:

Muito provavelmente, as pessoas vêm a um espaço comunitário quando algo incomum está acontecendo. Provavelmente há muitas perguntas antes que uma solução seja encontrada para um problema, como qual versão eles usam, se eles tentaram isso ou aquilo. Às vezes, é ótimo se você sentir alguma empatia de outros usuários. A IA não faz perguntas; ela não tem intuição sobre o quão estúpidos somos às vezes (por exemplo, no Meta: Você tentou reconstruir o Discourse? Você tentou o modo de segurança?), e qualquer empatia é definitivamente falsa, não importa o quão agradável seja.

Então, minha maneira de lidar com respostas com a maioria do conteúdo de IA – eu provavelmente as baniria e implementaria um bot de IA para que os usuários possam se ajudar facilmente.

1 curtida