Parece muito bom nisso:
lá se vão vários negócios! ![]()
Absolutamente preposterous, na minha humilde opinião.
Deveríamos reembolsar toda a humanidade por evoluir as belas línguas que temos?
Mas divago.
Não discordo de você, mas suspeito que muitos processos judiciais são considerados absolutamente preposterous pelos réus, mas ainda assim custosos.
Se uma pergunta e resposta verificadas por um humano (por exemplo, um tópico resolvido do Discourse) tiver valor econômico como dados de treinamento, não parece razoável querer ser pago por isso. Há uma necessidade de dados, então seria um cenário ganha-ganha.
Existem pelo menos duas competições de escrita em que o objetivo é escrever no estilo de algum autor designado. (Bulwer-Lytton e Hemingway)
Mas eu poderia ver onde pedir a uma IA para escrever um romance no estilo de algum autor conhecido poderia levantar algumas objeções com esse autor ou herdeiros, um estilo reconhecível poderia ser considerado uma ‘propriedade intelectual’, ou pelo menos algum advogado estaria disposto a assim reivindicar em tribunal.
Alguém teve muito burburinho de usuários animados para usar o Discourse Chatbot em seus fóruns? Tenho visto todo esse material de chatbot e uso ChatGPT, Perplexity, Claude, Bard, etc. todos os dias. Mas pensei que fóruns fossem um espaço seguro de tudo isso. Escrevi um artigo sobre isso ontem Acho que a Saturação de IA Reviverá Esta Velha Plataforma da Web (fóruns da web)
Estou realmente curioso se os usuários de fóruns desejam Chatbots e IA quando visitam fóruns de discussão alimentados por Discourse e outros. Se for esse o caso, terei que reformular minha ideia de fóruns e até considerar um plugin como este. Isso parece um grande projeto, talvez até demorado. Como sempre, aprecio tudo o que vocês fazem. Tentando aprender sobre a demanda que produziu isso para que eu esteja atualizado, por assim dizer.
Estou pensando em usá-lo em um fórum de suporte técnico para ajudar a responder perguntas fáceis/repetitivas rapidamente quando a equipe estiver ocupada e fora do horário de expediente. Acho que será ótimo nessa capacidade.
Sim, recentemente abri uma janela de chat com o suporte da Hostinger. Era um Chatbot de IA. E o chatbot foi tão eficaz que me informou sobre uma opção de reembolso que eu nunca teria conhecido e até me enviou um link para a política de reembolso! lol
Ele entendeu o que eu estava perguntando e não me perguntou se eu já tinha tentado 10 coisas básicas. Então, sim, posso ver com casos de suporte, sendo útil.
Espero que isso seja salvo nos fóruns, para que outros possam ver ou até mesmo adicionar à discussão em vez de substituí-la.
Seria o mesmo caso com um agente de suporte experiente que tivesse conhecimento do software para o qual fornece suporte?
Claro que não. Não existe uma opção perfeita para todos.
Os GPTs podem evoluir. Mas agora essas são opções de baixo nível, mesmo fazendo matemática simples. O 3.5 não consegue fazer o básico de forma confiável, certo? A alucinação é um problema muito grande quando deveriam ser fatos corretos, ou pelo menos próximos do correto.
Outras línguas além do inglês são difíceis. Para poucas línguas massivas funcionará bem, mas para mim, e para todos que falam uma língua minoritária e especialmente se a estrutura não usa preposições, as traduções nunca serão de primeira linha.
O GPT traduzirá primeiro para o inglês e mudará o prompt. Então a resposta será traduzida de volta do inglês, e o GPT fará outras mudanças e uma rodada de alucinação. O produto final estará muito longe do que foi pedido e até mesmo do que o GPT estava oferecendo no início.
E como o treinamento é baseado na ideia de que milhões de moscas não podem estar erradas e a quantidade é mais importante que a qualidade, a quantidade de desinformação e informações incorretas é mais do que enorme. E mesmo nessa situação, haverá ainda mais ficção, por causa da alucinação.
Claro que não é tão preto no branco. Estou usando uma solução de nível de entrada. Mas se houver dinheiro para gastar, pode-se fazer um treinamento próprio e o playground mudará muito.
Ainda assim, faço uma afirmação: o GPT funciona melhor ao analisar ou fazer algo onde não há muitas variações. Ou se ele pode criar algo “novo”, material totalmente fictício. Mas o amplo meio-termo onde um GPT deveria oferecer fatos e informações confiáveis… não tanto.
Estou usando o GPT3.5 da OpenAI muito todos os dias como… uma busca com esteroides. E não estou muito feliz. Tenho que verificar, verificar novamente e reescrever muito, mas não nego que o GPT ainda está me poupando tempo ao criar textos em massa.
Houve um estudo interessante sobre uma versão desta questão publicada recentemente:
https://www.nature.com/articles/s41598-024-61221-0
As consequências da IA generativa para comunidades de conhecimento online
Tecnologias de inteligência artificial generativa, especialmente modelos de linguagem grandes (LLMs) como ChatGPT, estão revolucionando a aquisição de informações e a produção de conteúdo em uma variedade de domínios. Essas tecnologias têm um potencial significativo para impactar a participação e a produção de conteúdo em comunidades de conhecimento online. Fornecemos evidências iniciais disso, analisando dados das comunidades de desenvolvedores Stack Overflow e Reddit entre outubro de 2021 e março de 2023, documentando a influência do ChatGPT na atividade do usuário na primeira. Observamos declínios significativos tanto nas visitas ao site quanto nos volumes de perguntas no Stack Overflow, particularmente em tópicos onde o ChatGPT se destaca. Em contraste, a atividade nas comunidades do Reddit não mostra evidências de declínio, sugerindo a importância do tecido social como um amortecedor contra os efeitos degradantes de comunidade dos LLMs. Finalmente, o declínio na participação no Stack Overflow é encontrado concentrado entre usuários mais novos, indicando que usuários mais juniores e menos socialmente embutidos são particularmente propensos a sair.
Isso descreve praticamente o meu próprio comportamento. Eu ainda faço e respondo perguntas no Meta - tenho uma conexão social aqui. Mas para aprender sobre novas linguagens de programação e frameworks, eu confio em uma combinação de ChatGPT e documentação online.
Possivelmente, a principal vantagem dos LLMs é a sua disponibilidade. Eu preferiria obter orientação de especialistas humanos, mas ninguém tem tempo ou paciência suficiente para responder a todas as minhas perguntas instantaneamente.
Uma grande desvantagem de aprender através de LLMs, em oposição a aprender em um fórum público, é que a informação gerada é privada. É bastante raro que aprender algo via LLM seja apenas uma questão de fazer uma pergunta e obter a resposta correta. É mais como fazer uma pergunta, tentar aplicar a resposta, ler alguma documentação para descobrir por que a resposta não funcionou, voltar ao LLM com uma pergunta de acompanhamento… eventualmente, um pouco de conhecimento é gerado.
Eu não acho que ninguém queira ler os logs de chat de outras pessoas, mas possivelmente fóruns técnicos poderiam promover a ideia de as pessoas postarem o conhecimento que obtiveram de LLMs.
Outra desvantagem óbvia de aprender via LLMs é a perda de conexão social, atenção humana como motivação para aprender, oportunidades de emprego, etc. Isso é algo muito importante do meu ponto de vista.
A disponibilidade é o principal motivo pelo qual estamos construindo um bot de suporte.
Estou igualmente animado com essa tecnologia e um pouco preocupado com o futuro da web.
Empresas como Google (e Bing) agora usam dados coletados ao rastrear seu site para fornecer uma resposta de perguntas e respostas com IA na parte superior de sua página de pesquisa.
Isso não apenas empurra os resultados da pesquisa para baixo na página e desvaloriza as fontes, mas também cria outra dinâmica preocupante: isso incentivará os provedores de pesquisa a buscar maior integração com algumas fontes de big data selecionadas.
Por exemplo, o Google teria fechado um acordo com o Reddit para obter acesso à sua API.
Na minha humilde opinião, o resultado disso é que tenderá a promover ainda mais o conteúdo em plataformas maiores e prejudicará sites menores.
Agora, há uma quantidade razoável de controvérsia no momento em relação à qualidade dos resultados que o Google está obtendo com seu recurso de “visão geral de IA” e alguns exemplos hilários e não tão hilários que são, sem dúvida, bastante embaraçosos para a empresa. Tenho certeza de que a tecnologia melhorará, no entanto.
Talvez fóruns menores estejam em uma posição melhor para otimizar seu uso local de IA, pois podem se especializar. O Google está lutando para fornecer um serviço muito genérico.
O tempo dirá, mas a batalha para chamar a atenção ainda está sendo travada.
Esta foi uma das minhas ideias. Eu estava pensando em ajustar um modelo semelhante ao BERT para classificar automaticamente postagens em categorias ou adicionar tags automaticamente. Detectar postagens ‘tóxicas’ seria outro caso de uso.
Para algo como o Discourse, provavelmente há mais que você pode fazer com IA do que eu em uma vida inteira. Embora, uma vez que a IA ajude a implementá-lo, talvez possa ser feito em uma vida inteira…
Honestamente, acho que essa questão é subjacente a todos os tópicos relacionados à IA, e o ingênuo que sou, pensa que isso pode ser (apenas) resolvido por um modelo de propriedade da comunidade.
Um que é treinado por dados, que fornecemos e regulamos voluntariamente, simplesmente aderindo às licenças fornecidas. Um modelo treinado eticamente, que é computado em todas as nossas máquinas.
A computação peer-to-peer de dados tem uma longa tradição, pois certos campos científicos o fazem há algumas décadas.
Na minha humilde opinião, não há como contornar isso, ou pelo menos uma solução comparável, se quisermos usar IA e não sacrificar nossos princípios, a longo prazo.
A moderação baseada em LLM será ótima, você poderia pedir para ela avaliar cada postagem em diferentes medidas arbitrárias (relevantes para a comunidade) e executar ações, filtros ou ajudar.
Vejo o início de parte disso aqui, mas não está claro sobre o conjunto de recursos: Discourse AI Features | Discourse - Civilized Discussion
Acredito que o conjunto de recursos que você está procurando é Discourse AI - Triagem por IA
Temos alguns planos para reformular a página inicial para que o contexto fique ainda mais claro para todos os recursos de IA.
Como visto em grande escala no Facebook, Instagram, TikTok etc ![]()
Depende muito do objetivo - remover conteúdo ofensivo, orientar o usuário, etc.
Um objetivo que me interessa em particular é usar um LLM para analisar perguntas/problemas quando eles são submetidos. O objetivo não é responder à pergunta, mas sim ajudar o usuário a expressar seu problema de uma forma mais construtiva. Muitas vezes vemos a primeira resposta ser “você pode, por favor, postar seus logs de erro” ou “o que exatamente você está tentando fazer?”. Um LLM poderia identificar tópicos que se enquadram nesta categoria e incentivar o usuário a fornecer esses detalhes, acelerando todo o processo de suporte e criando um tópico de maior qualidade para leitores futuros.
O trabalho inicial tem sido promissor, mostrando cerca de 93-95% de precisão em um conjunto de dados de cerca de 60 tópicos. As imprecisões nem são tão ruins - metade das respostas em que nossa avaliação discorda da do LLM são bastante duvidosas para começar.
Minha principal descoberta, por mais óbvia que seja, é: quanto mais você reduzir o escopo da sua consulta ao LLM, mais precisa será essa resposta.