2 posts foram divididos em um novo tópico: É possível habilitar apenas uma persona de IA?
RAILS_ENV=production bundle exec rake assets:precompile a versão auto-hospedada do discourse não funciona com o plugin discourse-AI mais recente devido a erros de compilação scss. @use “lib/viewport” deve ser a primeira linha do discourse-ai.css. você pode verificar, por favor? @ discourse-AI
Você está executando isso contra uma versão anterior do Discourse ou está no principal?
Após instalar o plugin Discourse AI na versão estável do Discourse (3.4.6), percebi que o Discourse diz que #bdef136 (commit datado de 4 de fevereiro de 2025) é o último commit e que o plugin instalado atualmente é o mais recente.
No entanto, quando verifiquei novamente porque havia um problema em que os campos de chave necessários para a integração do AWS Bedrock não eram exibidos, descobri que ele estava pelo menos 300 commits atrasado e, quando realmente fui ao repositório discourse-ai e verifiquei o branch principal, a diferença era grande. Esse sintoma também aparece em outras instâncias do Discourse que gerencio e não consigo descobrir qual é o problema.
Ainda não se passou uma semana desde que instalei o plugin discourse-ai na minha instância existente, mas o commit da versão que foi realmente instalada tem mais de 4-5 meses, e estou curioso sobre por que ele está sendo exibido como o mais recente e como corrigir para que o plugin possa ser substituído pelo último commit.
Plugins são fixados após um lançamento estável. Isso significa que você não receberá automaticamente atualizações de plugins mais recentes que possam depender de alterações no núcleo do Discourse que ainda não fazem parte do lançamento estável.
Se uma atualização de plugin usar código que existe apenas no último branch tests-passed, ela pode falhar no estável porque esse código simplesmente não está lá.
Por exemplo, o plugin de IA começou a usar a biblioteca js-diff, que só foi adicionada ao núcleo do Discourse após o lançamento estável de fevereiro. Portanto, a versão mais recente do plugin de IA não funcionará com essa versão estável.
Ah, entendi! Então o comando git clone no arquivo app.yml adiciona mais comportamento do que o mencionado naquele arquivo! Agora faz sentido. ![]()
Agora, quando ativo o plugin de IA e adiciono um novo LLM no plugin, além de poder selecionar o AWS Bedrock, por que os campos de entrada AWS Bedrock Access Key ID e AWS Bedrock Region não aparecem quando seleciono o Bedrock como provedor, ao contrário do que é mencionado neste documento: Configuring Amazon Bedrock services
Estou usando a versão 3.4.5 do Discourse e a versão do plugin de IA é 0.0.1 e bdef136.
Não oferecemos suporte ao Discourse AI no Discourse estável, por favor, use nosso canal de lançamento padrão para a melhor experiência.
Este plugin agora está incluído no core do Discourse como parte de Bundling more popular plugins with Discourse core. Se você auto-hospeda e usa o plugin, precisa removê-lo do seu app.yml antes da sua próxima atualização.
Estou tentando configurar este plugin com o Azure. Conectamo-nos ao OpenAI através do nosso próprio gateway que usa o Azure. Eu estava tentando fazer a configuração usando a configuração manual do LLM
Processando por DiscourseAi::Admin::AiLlmsController#test como JSON
Parâmetros: {“ai_llm”=>{“max_prompt_tokens”=>“2000”, “api_key”=>“[FILTERED]”, “tokenizer”=>“DiscourseAi::Tokenizer::OpenAiTokenizer”, “url”=>“<OUR_URL>”, “display_name”=>“test-ai-gateway”, “name”=>“gpt-4_0613-pgo-amrs”, “provider”=>“azure”, “enabled_chat_bot”=>“true”, “vision_enabled”=>“false”}}
Isso não parece funcionar. Alguém pode fornecer a maneira correta de configurar isso?
Minha Pergunta:
Ao usar um modelo de IA para tradução de texto completo, acho os resultados medíocres. Quero mudar para outro modelo de IA para retraduzir o conteúdo. Como posso retraduzir posts já traduzidos usando o novo modelo?
Além disso, existe alguma maneira eficiente de contar rapidamente o número de posts que já foram traduzidos?
No momento, você precisará usar o console Rails ou o console PostgreSQL para excluir as traduções existentes.
Está em nosso roteiro adicionar uma página de status com o progresso por idioma no backlog de tradução.
Desculpe, não consigo encontrar a tabela específica para excluir. Você pode me dizer o nome da tabela e onde está o roteiro do progresso da tradução?
Olá, haverá alguma atualização sobre o GPT 5?
Olá, não há nenhum anúncio oficial de que a Equipe Discourse disse que o GPT-5 tem atualizações ou existe, mas se você realmente quiser, apenas espere até que ele seja lançado, para que você possa verificar.
Deve pousar em breve:
Observação sobre o GPT-5: Tenho usado o dia todo, é bom, mas é um modelo de raciocínio, então é lento.
Sinta-se à vontade para mexer no esforço de raciocínio, em nível baixo a velocidade é aceitável, mas muito mais lenta que a 4.1.
Baixei a atualização mais recente e parece que a OpenAI fez algumas alterações na API
Tentando contatar o modelo retornou este erro: { “error”: { “message”: “Parâmetro não suportado: ‘reasoning_effort’. Na API de Respostas, este parâmetro foi movido para ‘reasoning.effort’. Tente novamente com o novo parâmetro. Veja a documentação da API para mais informações: https://platform.openai.com/docs/api-reference/responses/create.”, “type”: “invalid_request_error”, “param”: null, “code”: “unsupported_parameter” } }
Tenho a URL definida como https://api.openai.com/v1/responses aqui.
Está funcionando na API de conclusões. Darei seguimento com uma raposa para a API de respostas.
FYI GPT-5 com Respostas está incrivelmente lento, todos estão relatando.
Eu enviei uma correção para isso há algumas horas, tente.
Funciona que é uma beleza, chefe ![]()
![]()
