O lançamento da cautela ao vento, a integração de IA de ChatGPT com abandono selvagem em tudo e em qualquer coisa, é motivo de imensa preocupação.
Há uma pergunta que, como administrador, é importante saber: existe alguma parte ou componente, por menor que seja, que seja essencialmente IA dentro da instalação principal do Discourse?
Presumo que a resposta seja não, mas quero verificar.
Desde a chegada de plugins que parecem isolar a IA fora de uma instalação principal do Discourse, eu também acho que é importante saber, do ponto de vista do roteiro, se há planos de integrar qualquer IA onde atualmente não há nenhuma (se é que isso é verdade).
Se a resposta for sim para uma ou mais dessas perguntas, seria ótimo ter a confirmação.
Sim, um bom ponto em relação às definições. Acho que o OP é claro em termos gerais, sendo um caso de antes e depois do ChatGPT (+semelhantes) e quais são os planos para o Discourse, nas linhas de pelo menos:
usá-lo para escrever código principal
usá-lo para integrá-lo ao núcleo
Se mais alguém quiser ajudar a definir nessas linhas, mas como você colocou, pode ser a melhor definição, basicamente qualquer coisa que não seja “código gerado por humanos à moda antiga, fazendo lógica procedural tradicional”
Você pode me fornecer alguns (digamos 10, grandes) exemplos de projetos de código aberto que possuem uma carta / documento público que proíbe o uso do GitHub Copilot?
Sim, então o bot ser um codificador é o motivo pelo qual fiz essa pergunta de forma tão ampla. Agora que estou ciente disso, acho que desde os verificadores de ortografia e gramática (por exemplo, Grammarly) até os auxílios e assistentes de programação como o Copilot. Acho que não há uma resposta clara e definida, certo?
No extremo, e quanto às ferramentas de refatoração de um IDE? Extrair método não é permitido? Continue surfando nesta onda e voltaremos aos cartões perfurados.
Apenas para acrescentar, o Discourse (e muitos plugins) usam extensas suítes de testes funcionais e verificações de linting.
Isso mitiga massivamente problemas de código (tente implantar em RoR sem verificações…) e também cobriria código gerado por IA ou código suportado pelo Copilot. E isso sem contar o fato de que o Copilot pode realmente encontrar problemas que você perde…
A disciplina central em relação a testes na plataforma é incomparável e serve de exemplo para o ecossistema.
Também é um tanto irrelevante? Não acho que a implantação de código de IA não supervisionada acontecerá tão cedo… você nem conseguiria executar os testes (Você já tentou pedir ao ChatGPT uma solução em EmberJS compatível com o Discourse? As alucinações estão fora de controle ). Talvez isso melhore à medida que os modelos evoluem.
O Discourse tem que acompanhar os tempos ou morrer, na minha opinião, e isso significa explorar e adotar novas tecnologias quando apropriado.
Como autor de dois plugins de “IA” (ambos escritos à mão! ), reconheço que eles obviamente vêm com ressalvas e isenções de responsabilidade, e não vejo isso mudando por um bom tempo…
Então, dentro do escopo do “discourse” para manter o tópico principal porque vocês estão surfando essa onda e a próxima, claro que é uma questão expansiva, mas:
Onde as coisas estão até agora (se eu estiver lendo o feedback corretamente.)
Não há componentes de IA ativos no discourse principal.
Não há componentes de IA inativos ou código dentro do Discourse principal.
Parte ou todo o código do Discourse pode ter surgido com a aplicação indireta ou direta de ferramentas de IA em várias plataformas de desenvolvimento e IDEs, etc., disponíveis para os desenvolvedores.
Adicionar qualquer recurso de IA ao núcleo não está atualmente no Roteiro.
Plugins são a porta de entrada para recursos alimentados por IA que funcionam com o Discourse.
IA não é um termo técnico… uma pessoa pode interpretar uma heurística como IA. A forma como “pontuamos” postagens, dando peso a curtidas, leituras e visualizações, pode ser considerada IA. O Akismet pode ser chamado de “IA”. A lista é enorme.
Atualmente, a indústria está “preocupada” com a segurança da IA no contexto de grandes modelos de linguagem.
Atualmente, o Discourse core e o Discourse AI não enviam nenhum grande modelo de linguagem. O Discourse AI integra grandes modelos de linguagem existentes via APIs que os administradores podem inserir (Open AI e Anthropic), no futuro, provavelmente apoiaremos ainda mais modelos.
Um grande modelo de linguagem (LLM) é um modelo de linguagem que consiste em uma rede neural com muitos parâmetros treinados em grandes quantidades de texto não rotulado usando técnicas de aprendizado profundo. Esses modelos podem reconhecer, resumir, traduzir, prever e gerar texto e outras formas de dados. Os LLMs tiveram avanços significativos nos últimos anos, destacando-se em uma variedade de tarefas e transformando os campos da inteligência artificial, ciência e sociedade como um todo [1][2].
Alguns exemplos de grandes modelos de linguagem incluem o GPT-3 da OpenAI, que é treinado para prever a próxima palavra em uma frase, muito parecido com um recurso de preenchimento automático de mensagens de texto [3].
Texto via Google + GPT-4
Acho essa discussão um tanto perplexa, há alguma preocupação de que “cancerizemos” o código do Discourse? Há preocupação de que tenhamos uma dependência incondicional e apertada da OpenAI?
Eu prefiro definitivamente o termo “papagaio estocástico”, como cunhado por Emily Bender e Timnit Gebru – é definitivamente mais preciso quando nos referimos a esses LLMs.
Você quer dizer via plugins, como é o caso atualmente?
Minha visão é que, se você está genuinamente perplexo, aposto que você não está tão ativamente ciente, informado ou empático com as “consequências”, porque pode não haver valor aparente em investigar isso, já que o cavalo já fugiu e a porta do celeiro está escancarada, então todos desistam!
Você diz câncer, mais como uma arma quântica de destruição em massa [preencha o espaço em branco], no entanto, alguns pensarão que isso é tudo hipérbole. Tudo bem. Todos têm opinião, mas estou pensando no geral e não especificamente no Discourse, o que você faz com o desenvolvimento depende de como funciona, então para esclarecer o ponto em relação ao OP:
A razão principal pela qual estou perguntando é como administrador do Discourse, onde você tem um dever para com uma base de usuários, e embora isso possa ser um segmento minúsculo em termos de mercado real, mas ainda assim sua base de usuários ou parte de sua base de usuários é importante, e pode realmente desejar não usar uma plataforma que se envolva com qualquer forma dessa geração de IA quando se trata do conteúdo que eles geram, por muitas razões diferentes. Da mesma forma que eles podem usar adblockers, eles não querem fazer parte dessa “coisa” - quando essa pergunta vem do primeiro usuário que pergunta, é porque não havia uma política de IA claramente indicada, você também tem que ter alguma forma de resposta que seja verdadeira.
Portanto, segregar as ferramentas de IA como plugins que não são centrais é uma boa abordagem, mas se chegasse ao ponto de a IA ser central, digamos em uma atualização futura, isso poderia deixar espaço para hesitação ou rejeição total da plataforma.
Desde que essa linha permaneça clara e delimitada, então essa pode ser uma maneira satisfatória para todos e uma orientação de desenvolvimento clara e garantia podem ser importantes aqui também.
Também entendo que é difícil enquadrar isso para o acordo total de todos, mas aqui está o cerne da questão agora, é isso que acontece quando uma pergunta é feita por um motivo real. Se o motivo for fundamentado ou não, será a base para os usuários tomarem decisões de valor que se convertem em ação.
Se for simplesmente um caso de uma declaração simples de que não há ChatGPT ou IA semelhante no núcleo do Discourse, com uma ressalva de que alguma IA é usada no desenvolvimento e criação como ferramenta, isso pode ser o mais próximo de uma resposta satisfatória para o frequentador comum de um fórum do Discourse.
No geral, a questão de como a IA afetará a web e, por virtude, o mundo, já foi feita e vista em termos de aplicação e consequências, esta fase de lançamento oficial desses “brinquedos”, ou seja, dar uma caixa de Pandora com APIs e tudo mais para o mundo do desenvolvimento e novamente por virtude do mundo é uma escalada, já que antes era uma fase experimental de aprendizado muito controlada e relativamente clandestina onde essa IA havia sido infundida em uma grande parte da web por anos sem que muitas pessoas comuns sequer percebessem.
Outro aspecto são os anúncios, eu presumiria que o Google tem usado IA desse tipo por anos em seus serviços de publicidade e até mesmo em serviços de análise, mas pelo menos por enquanto os usuários podem implantar algum software de bloqueio e usar VPNs, essas ferramentas usam IA também?!
Talvez tudo se resuma a como as pessoas percebem a IA e talvez a maneira mais fácil de articular isso é que alguns a veem como sandbox (ferramentas), outros a veem como um fogo no próprio tecido da matriz da realidade que precisa ser extinto, de qualquer forma está acontecendo e vai acontecer, seja o que for, mas sempre há consequências, e às vezes tudo o que você tem é uma escolha de fazer parte da criação dessas consequências ou mitigá-las, o que temos com a “indústria” é que eles estão, na minha humilde opinião, sendo ambos.
Se você está me pedindo para dizer “A partir de agora… até o fim do universo, você pode garantir que os LLMs nunca chegarão ao produto principal”… a resposta é não.
Se você está me perguntando “Serei capaz de optar por sair, se algo assim acontecer?” Minha resposta é… provavelmente… tendemos a permitir aos administradores enormes quantidades de liberdade com as configurações e configuração do site.
Agora, eu estaria pedindo para você dizer algo diferente do que é, pois isso seria irracional, como sua resposta acima indica, quem pode dizer em uma linha do tempo infinita, com certeza, realmente é um esforço para estabelecer a posição atual do núcleo do Discourse utilizando IA ativa da melhor forma possível.
Nem estou procurando por promessas.
Minha sugestão principal antes de uma resposta permanece a mesma.
Considere manter a IA ativa separada do núcleo para que proprietários/administradores tenham uma escolha clara sem confusão. Minha preferência é por isso em vez de uma opção liga/desliga no administrador, me chame de paranoico e antiquado se quiser, estou pensando em uma lacuna de ar, de certa forma.
ChatGPT et al sendo interrogados em tantas plataformas e ferramentas, é selvagem e em termos gerais, as implicações são vastas, então por que o Discourse perderia o barco (não perdeu, o plugin é esse evento na linha do tempo do desenvolvimento do Discourse).
Considero a pergunta esclarecida como será e espero que, se houvesse uma mudança demonstrável no equilíbrio do jogo, uma comunicação muito clara seria feita com antecedência ou em um prazo adequado.
Ter um fórum com IA ativa profundamente no núcleo pode ser um passo de skynet muito grande para alguns administradores/proprietários e/ou bases de usuários, e acho que a IA deve ser considerada algo ainda maior do que um evento de paradigma que é meta.