2 berichten zijn naar een nieuw onderwerp gesplitst: Is het mogelijk om slechts één AI-persona in te schakelen?
RAILS_ENV=production bundle exec rake assets:precompile discourse self-hosted versie werkt niet met de nieuwste discourse-AI plugin vanwege scss compileerfouten. @use “lib/viewport” zou de eerste regel van discourse-ai.css moeten zijn. Kunt u dit alstublieft controleren?
Draai je dit tegen een eerdere release van Discourse of is het op de hoofdlijn?
After installing the Discourse AI plugin on the stable version of Discourse (3.4.6), I realized that Discourse says that #bdef136 (commit dated February 4, 2025) is the latest commit, and that the currently installed plugin is the latest.
However, when I checked again because there was a problem where the key fields required for AWS Bedrock integration were not displayed, I found that it was at least 300 commits behind, and when I actually went to the discourse-ai repository and checked the main branch, the gap was large. This symptom also appears in other Discourse instances that I manage, and I can’t figure out what the problem is.
It hasn’t even been a week since I installed the discourse-ai plugin on my existing instance, but the commit of the version that was actually installed is more than 4-5 months old, and I’m curious about why it’s showing as the latest, and how to fix it so that the plugin can be replaced with the latest commit.
Plugins are pinned after a stable release. That means you won’t automatically get newer plugin updates that might rely on changes in the Discourse core which aren’t part of the stable release yet.
If a plugin update uses code that only exists in the latest tests-passed branch, it could break on stable because that code simply isn’t there.
For example the AI plugin started using the js-diff library, which was only added to core Discourse after the February stable release. So the latest version of the AI plugin won’t work with that stable version.
Oh, I see! So the git clone command in the app.yml file adds more behavior than what was mentioned in that file! Now it makes sense. ![]()
Now, when I activate the AI plugin and add a new LLM in the plugin, apart from being able to select AWS Bedrock, why doesn’t the AWS bedrock access key id and AWS bedrock region input fields appear when I select Bedrock as a provider, unlike what is mentioned in this document: Configuring Amazon Bedrock services
I’m using the Discourse version 3.4.5, and the AI plugin version is 0.0.1
and bdef136.
We ondersteunen Discourse AI niet op stabiele Discourse, gebruik alstublieft ons standaard releasekanaal voor de beste ervaring.
This plugin is now bundled with Discourse core as part of Bundling more popular plugins with Discourse core. If you are self-hosting and use the plugin, you need to remove it from your app.yml before your next upgrade.
Ik probeer deze plugin in te stellen met Azure. We maken verbinding met OpenAI via onze eigen gateway die Azure gebruikt. Ik probeerde de instellingen te doen via Handmatige LLM-configuratie
Processing by DiscourseAi::Admin::AiLlmsController#test as JSON
Parameters: {"ai_llm"=>{"max_prompt_tokens"=>"2000", "api_key"=>"[FILTERED]", "tokenizer"=>"DiscourseAi::Tokenizer::OpenAiTokenizer", "url"=>"<OUR_URL>", "display_name"=>"test-ai-gateway", "name"=>"gpt-4", "provider"=>"azure", "enabled_chat_bot"=>"true", "vision_enabled"=>"false"}}
Dit lijkt niet te werken. Kan iemand de juiste manier van instellen geven?
Mijn Vraag:
Wanneer ik een AI-model gebruik voor volledige tekstvertaling, vind ik de resultaten middelmatig. Ik wil overschakelen naar een ander AI-model om de inhoud opnieuw te vertalen. Hoe kan ik reeds vertaalde berichten opnieuw vertalen met het nieuwe model?
Is er bovendien een efficiënte manier om snel het aantal reeds vertaalde berichten te tellen?
At the moment, you will need to use either the Rails or the PostgreSQL console to delete the existing translations.
It’s in our roadmap to add a status page with per language progress in the translation backlog.
Sorry, ik kan de specifieke tabel niet vinden om te verwijderen. Kunt u mij de tabelnaam vertellen en waar de roadmap van de vertaalvoortgang is?
Hallo, komt er een update met betrekking tot GPT 5?
Hallo, er is geen officiële aankondiging dat het Discourse Team GPT-5 updates heeft of dat het überhaupt bestaat; maar als je het echt wilt, wacht dan gewoon tot het uitkomt, dan kun je het bekijken.
Should land shortly:
Note on GPT-5, I have been using it all day, it is good, but it is a reasoning model so it is slow
Feel free to fiddle with reasoning effort, on low it is acceptable speed, but way slower than 4.1
Pulled the latest update and it looks like OpenAI has made some API changes
Trying to contact the model returned this error: { “error”: { “message”: “Unsupported parameter: ‘reasoning_effort’. In the Responses API, this parameter has moved to ‘reasoning.effort’. Try again with the new parameter. See the API documentation for more information: https://platform.openai.com/docs/api-reference/responses/create.”, “type”: “invalid_request_error”, “param”: null, “code”: “unsupported_parameter” } }
I have the url set to https://api.openai.com/v1/responses here.
Het werkt onder de completions API. Ik zal een oplossing voor de responses API volgen.
Ter info, GPT-5 met Responses is ongelooflijk traag, iedereen meldt het. Dus wat je nu hebt is waarschijnlijk nuttiger.
Ik heb een paar uur geleden een oplossing hiervoor gepusht, probeer het eens.
Works like a charm boss ![]()
![]()
