タイトルがすべてを物語っています。このモデルのサポート計画はありますか?もしあれば、いつ頃実装されるかの大まかな見積もりはありますか?
これは、現在 GPT 3.5 Turbo を使用している人にとって、より賢く、60% 以上安価になるため、大幅な改善です。
タイトルがすべてを物語っています。このモデルのサポート計画はありますか?もしあれば、いつ頃実装されるかの大まかな見積もりはありますか?
これは、現在 GPT 3.5 Turbo を使用している人にとって、より賢く、60% 以上安価になるため、大幅な改善です。
Discourse AI plugin で既に動作しています。LLM 設定で gpt-4o-mini を名前として使用するだけです。
これは恥ずかしい。ボス、ありがとう ![]()
![]()
まだ十分に触れていないのかもしれません。メモしておきます。
それがどれほど賢いか、あるいはどれほど優れているかを幻覚で見るでしょう
GPT-4oが登場したときの騒ぎを覚えています。そして今、多くの不満があります。
しかし、試すのは良いことです。
少し話がずれますが、モデルとAPIに伝える場所が2つある理由がよくわかりません。設定とLLMセクションです。
それは良い点ですね。このモデルで幻覚の問題が改善されたとは思いませんが、システムプロンプト全体に多くの制約を設けることで、ある程度軽減することができました。もちろん、それにも独自の欠点があります。
手動でのLLM設定の場合のみ意味があります。ですから、私も同じ質問をしています😅
その考え方は、まずLLMを設定し、次に選択したDiscourse AI機能のためにそのLLMを選択するというものです。そのため、現在それらは別々の場所にあります。
このプロセスをすべて1か所で行うこと、つまり、LLMを設定したときに、AIボットの場合のように、特定のAI機能でオンにすることもできることについて、内部でいくつかの議論がありました。