Como todos nós estamos nos sentindo sobre o ChatGPT e outros LLMs e como eles irão impactar os fóruns?

Então… como me sinto sobre todas essas coisas?

Obviamente, estou animado. Temos uma caixa de brinquedos novinha em folha para brincar, e esses brinquedos são diferentes de todos os outros brinquedos que tivemos no passado. Como a maioria das tecnologias, isso pode ser usado para o bem ou para o mal.

Pessoalmente, sinto que estou no meio de uma névoa de IA. Eu costumava ter uma boa noção de para onde as coisas estavam indo nos próximos três a quatro anos; no entanto, os LLMs e as futuras evoluções dessa tecnologia jogaram uma chave de roda no sistema. Eu simplesmente não sei onde as coisas estarão em um ano.

Quando você olha de perto para a velocidade com que o stable diffusion avançou nos últimos meses, é de cair o queixo. Quando você olha para o escopo do progresso do GPT 3.5 para o 4, também é de cair o queixo.

Mesmo com a nova névoa de IA, tenho algumas preocupações muito reais:

  • Está 100% claro para mim que os fóruns de suporte serão ingeridos por LLMs e usados como dados de treinamento para chatbots úteis. A vantagem aqui é que muito do trabalho árduo de suporte pode desaparecer, e você obtém respostas imediatamente. No entanto, a desvantagem é que menos conteúdo novo será criado, o que pode rapidamente causar uma espiral de morte, a menos que seja mitigado.

  • Tenho certeza de que spam e outros atores mal-intencionados vão se apoiar nessa tecnologia, lançando ataques muito mais sofisticados do que qualquer coisa que vimos até hoje, potencialmente matando fóruns se não formos cuidadosos.

  • Essa tecnologia assistiva pode corroer a confiança. Quando você lê as palavras que escrevo, espera que as palavras venham de mim. As pessoas podem usar IA para fazer mais do que revisar textos; ela pode reinterpretar completamente nossas palavras. Quer soar como Malcolm Gladwell? Sem problemas, você pode fazer isso. Qual é o nível de rotulagem que os usuários responsáveis de fóruns devem esperar? As pessoas abandonarão fóruns se não confiarem mais que estão falando com pessoas ou meramente falando com fac-símiles.

leia isto nas palavras de Malcolm

No mundo de hoje, a tecnologia assistiva tem o poder de corroer a confiança de maneiras que talvez não tenhamos antecipado. Como consumidores da palavra escrita, temos certas expectativas - a saber, que as palavras que lemos são autênticas e emanam de sua fonte declarada. No entanto, com o advento da tecnologia de IA, os indivíduos podem manipular o texto escrito de maneiras que vão além da mera revisão. Em essência, eles podem reinterpretar completamente uma mensagem para soar como quem eles escolherem. Portanto, se você já sonhou em soar como Malcolm Gladwell ou qualquer outra figura notável, essa tecnologia pode torná-lo realidade com facilidade. No entanto, isso levanta questões sobre rotulagem responsável para usuários de fóruns. Se as pessoas não puderem mais confiar que estão conversando com outras pessoas, e não apenas com fac-símiles gerados por computador, elas poderão muito bem abandonar os fóruns. O nível de rotulagem necessário para manter a confiança no discurso online é uma preocupação premente que merece séria consideração.

  • Já vimos fóruns de “fábrica de SEO” no passado; veremos versões muito mais elaboradas e assustadoras disso.
outras preocupações semelhantes que o GPT 4 tem
  • Existe o risco de que o uso de LLMs em fóruns possa criar uma cultura de preguiça entre os usuários que dependem demais da tecnologia de IA para fornecer respostas e insights. Isso pode levar a um declínio no pensamento crítico e nas habilidades de resolução de problemas entre os usuários do fórum.
  • O uso de LLMs em fóruns levanta preocupações éticas em torno da privacidade e segurança de dados. Os usuários podem se sentir desconfortáveis com a ideia de suas informações pessoais e interações serem analisadas e processadas por um sistema de IA, especialmente se não estiverem totalmente cientes de como seus dados estão sendo usados.
  • A integração de LLMs em fóruns pode exacerbar preconceitos e desigualdades existentes, especialmente se a tecnologia de IA for treinada em um conjunto de dados limitado que não capture a diversidade de experiências e perspectivas dos usuários do fórum.
  • O uso de LLMs em fóruns também pode resultar na homogeneização do discurso, pois os usuários provavelmente receberão respostas padronizadas geradas pelo sistema de IA, em vez de feedback sutil e diversificado de outros usuários humanos. Isso pode sufocar a criatividade e a originalidade nas conversas do fórum.
  • Existe o risco de que a integração de LLMs em fóruns possa levar à substituição de moderadores humanos e pessoal de suporte, o que poderia ter implicações negativas para a segurança do emprego e a qualidade do suporte fornecido aos usuários.

Apesar desses medos e mais, permaneço animado e esperançoso. Haverá aplicações deliciosas e extremamente úteis dessa tecnologia, e esperamos explorá-las na Discourse.

O fogo está apagado; o melhor que podemos fazer aqui é ser muito cuidadosos com nossas abordagens e experimentos e tentar conter o fogo. Espero que possamos conter o fogo. Mas você sabe… névoa de IA…

34 curtidas