2つの投稿が新しいトピックに分割されました:Is it possible to enable only one AI persona?
RAILS_ENV=production bundle exec rake assets:precompile Discourseのセルフホスト版は、SCSSコンパイルエラーのため、最新のdiscourse-AIプラグインで動作しません。@use "lib/viewport" は discourse-ai.css の最初の行である必要があります。確認していただけますか?
Discourse の以前のリリースに対してこれを実行していますか、それともメインですか?
Discourse の安定版 (3.4.6) に Discourse AI プラグインをインストールした後、Discourse は #bdef136 (2025 年 2 月 4 日付のコミット) が最新のコミットであり、現在インストールされているプラグインが最新であると表示されることに気づきました。
しかし、AWS Bedrock 連携に必要なキーフィールドが表示されないという問題があったため再度確認したところ、少なくとも 300 コミット遅れており、実際に discourse-ai リポジトリにアクセスしてメインブランチを確認したところ、その差は大きいことがわかりました。この症状は、私が管理している他の Discourse インスタンスでも発生しており、問題の原因がわかりません。
既存のインスタンスに discourse-ai プラグインをインストールしてからまだ 1 週間も経っていませんが、実際にインストールされたバージョンのコミットは 4 ~ 5 ヶ月以上前のものになっており、最新と表示される理由と、プラグインを最新のコミットに置き換える方法について知りたいです。
プラグインは安定リリース後にピン留めされます。これは、Discourse コアの変更に依存する新しいプラグインアップデートが、まだ安定リリースに含まれていない場合、自動的に取得されないことを意味します。
プラグインのアップデートが、最新のテスト合格ブランチにのみ存在するコードを使用している場合、そのコードが存在しないため、安定版で破損する可能性があります。
例えば、AI プラグインは js-diff ライブラリの使用を開始しましたが、これは 2 月の安定リリース後にコア Discourse に追加されたものです。そのため、AI プラグインの最新バージョンは、その安定バージョンでは動作しません。
なるほど!つまり、app.yml ファイルの git clone コマンドは、そのファイルに記載されている以上の動作を追加するということですね!これで納得がいきました。![]()
さて、AI プラグインを有効にして、プラグインに新しい LLM を追加すると、AWS Bedrock を選択できる以外に、このドキュメントで言及されているように、Bedrock をプロバイダーとして選択したときに AWS bedrock アクセスキー ID と AWS bedrock リージョン の入力フィールドが表示されないのはなぜでしょうか? Configuring Amazon Bedrock services
Discourse バージョン 3.4.5、AI プラグイン バージョン 0.0.1 を使用しています。
そして bdef136。
安定版 Discourse では Discourse AI をサポートしていません。最高の体験のためには、デフォルトのリリースチャネルをご利用ください。
このプラグインは、Bundling more popular plugins with Discourse core の一部として、Discourse コアにバンドルされるようになりました。セルフホストでこのプラグインを使用している場合は、次回のアップグレード前に app.yml から削除する必要があります。
Azure を使用してこのプラグインを設定しようとしています。OpenAI には、Azure を使用する独自のゲートウェイ経由で接続します。手動 LLM 設定を使用して設定を試していました。
{
"content": "Processing by DiscourseAi::Admin::AiLlmsController#test as JSON\n Parameters: {\"ai_llm\"=\u003e{\"max_prompt_tokens\"=\u003e\"2000\", \"api_key\"=\u003e\"[FILTERED]\", \"tokenizer\"=\u003e\"DiscourseAi::Tokenizer::OpenAiTokenizer\", \"url\"=\u003e\"\u003cOUR_URL\u003e\", \"display_name\"=\u003e\"test-ai-gateway\", \"name\"=\u003e\"gpt-4_0613-pgo-amrs\", \"provider\"=\u003e\"azure\", \"enabled_chat_bot\"=\u003e\"true\", \"vision_enabled\"=\u003e\"false\"}}\n\nThis doesn't seems to work. Can anyone provide a the right way of setting this?"
}
これは機能しないようです。正しい設定方法を教えていただけますか?
私の質問:
全文翻訳にAIモデルを使用すると、結果が平凡だと感じます。別のAIモデルに切り替えてコンテンツを再翻訳したいと考えています。新しいモデルを使用して、すでに翻訳された投稿を再翻訳するにはどうすればよいですか?
さらに、すでに翻訳された投稿の数を迅速に数える効率的な方法はありますか?
現時点では、既存の翻訳を削除するには、RailsコンソールまたはPostgreSQLコンソールを使用する必要があります。
翻訳バックログの言語ごとの進捗状況を示すステータスページを追加することは、ロードマップにあります。
申し訳ありませんが、削除する特定のテーブルが見つかりません。テーブル名と翻訳の進捗状況のロードマップを教えていただけますか?
こんにちは、GPT 5に関するアップデートはありますか?
DiscourseチームがGPT-5のアップデートや存在について公式発表したという情報はありませんが、もし本当に欲しいのであれば、リリースされるまで待ってから確認してください。
まもなく登場予定です。
GPT-5 に関する注記:一日中使っていますが、良いのですが、推論モデルなので遅いです。
推論の努力を自由に調整してください。低にすると許容できる速度ですが、4.1 よりずっと遅いです。
最新のアップデートをプルしたところ、OpenAIがAPIを変更したようです。
モデルへの連絡を試みたところ、次のエラーが返されました: { “error”: { “message”: “サポートされていないパラメーター: ‘reasoning_effort’。Responses API では、このパラメーターは ‘reasoning.effort’ に移動しました。新しいパラメーターで再試行してください。API ドキュメントで詳細を確認してください: https://platform.openai.com/docs/api-reference/responses/create。”, “type”: “invalid_request_error”, “param”: null, “code”: “unsupported_parameter” } }
URLはここで https://api.openai.com/v1/responses に設定しています。
Completions APIで動作しています。Responses APIについては、後ほどfoxで対応します。
FYI GPT-5 with Responses is incredibly slow everyone is reporting.
数時間前に修正をプッシュしましたので、お試しください。
ばっちりだよ、ボス ![]()
![]()
